Commento alla Recensione di Mario De Caro a Luciano Floridi

La frase è brutale, quasi scomoda: se è artificiale non è intelligente. Non è una provocazione da bar accademico, ma il cuore del dibattito contemporaneo sull’intelligenza artificiale che attraversa filosofia, economia e governance tecnologica. Nella recensione dedicata al lavoro di Luciano Floridi, il filosofo Mario De Caro sintetizza una tesi che, letta con gli occhi di un tecnologo e di un CEO, suona come una diagnosi strategica più che filosofica: stiamo costruendo sistemi potentissimi, ma continuiamo a raccontarli con metafore sbagliate. E quando la metafora è sbagliata, la strategia aziendale lo è ancora di più.

Floridi smonta con eleganza una delle illusioni più diffuse nel capitalismo digitale: l’idea che l’AI stia diventando una mente. Non lo è. Non ha coscienza, non ha intenzionalità, non ha volontà. E soprattutto non è autonoma nel senso filosofico del termine. Questa distinzione non è accademica. È economica, regolatoria e geopolitica. Perché se l’intelligenza artificiale non è davvero autonoma, allora la responsabilità resta umana. Sempre.

Il problema, però, è che il mercato ama le narrazioni semplici. Dire “AI intelligente” vende di più che dire “sistemi statistici avanzati”. Dire “agenti autonomi” genera hype, capitalizzazione e titoli in borsa. Dire “infrastrutture probabilistiche governate da dati e incentivi umani” fa crollare l’entusiasmo degli investitori retail. E qui nasce la distorsione strategica.

Secondo la lettura che emerge dalla riflessione filosofica, l’AI va trattata come infrastruttura pubblica cognitiva, non come entità. Questo cambia tutto. Cambia la regolazione, cambia il modello di business, cambia il modo in cui un consiglio di amministrazione dovrebbe allocare budget in AI transformation. Perché non si tratta di “adottare una mente artificiale”, ma di progettare ecosistemi socio-tecnici complessi, fatti di dati, norme, hardware, governance e accountability.

Un passaggio cruciale riguarda la mitologia dell’autonomia tecnologica. Nel dibattito pubblico si parla di macchine che decidono, agiscono, imparano da sole. In realtà, come sottolinea l’impostazione filosofica di Floridi, l’autonomia dell’AI è sempre delegata, limitata e progettata. È una pseudo-autonomia operativa, non esistenziale. E questo dettaglio semantico ha conseguenze gigantesche per il diritto, la sicurezza e la strategia industriale europea.

L’Europa, in particolare, potrebbe trasformare questa debolezza narrativa in un vantaggio competitivo. Mentre Silicon Valley spinge sulla retorica dell’AGI e della superintelligenza, l’approccio europeo tende a considerare l’AI come tecnologia embedded nella società. Non come soggetto, ma come infrastruttura regolata. Una differenza sottile, ma strategicamente devastante per chi la ignora.

Il punto più interessante, quasi ironico, è che i rischi dell’intelligenza artificiale non derivano da una presunta coscienza delle macchine, ma dagli usi sociali che ne facciamo. Deepfake, disinformazione, manipolazione di massa, delega decisionale opaca. Non è l’AI a diventare pericolosa. Siamo noi a diventare irresponsabili nel delegarle funzioni senza adeguata supervisione.

Non basta misurare l’uso degli strumenti generativi o l’automazione dei processi. Bisogna misurare la qualità delle decisioni umane assistite dall’AI. Un paradigma completamente diverso, che sposta il focus dalla tecnologia alla governance.

Floridi insiste anche su un concetto spesso ignorato nel discorso mainstream: la rilevanza dell’hardware. In un’epoca ossessionata dai modelli linguistici, ricordare che l’AI è anche infrastruttura fisica, energetica e geopolitica suona quasi sovversivo. Data center, supply chain dei chip, consumo energetico. Tutti elementi che trasformano l’AI in una questione di sovranità tecnologica più che di semplice innovazione software.

Qui la narrazione diventa geopolitica. Chi controlla l’infrastruttura dell’intelligenza artificiale controlla le capacità cognitive distribuite della società. Non in senso fantascientifico, ma in senso economico. I modelli definiscono flussi informativi, priorità decisionali, sistemi di raccomandazione, allocazione dell’attenzione. In altre parole, influenzano la percezione della realtà.

Un altro elemento affascinante è la critica implicita al tecno-solutionism. L’idea che ogni problema sociale possa essere risolto con più AI è, secondo questa visione, non solo ingenua ma pericolosa. Fake news, polarizzazione, crisi dello spazio pubblico non sono problemi tecnici puri. Sono problemi culturali, istituzionali e cognitivi. Pensare che un algoritmo possa risolverli automaticamente è una forma di delega intellettuale mascherata da innovazione.

La cancellazione selettiva delle informazioni, tema emergente nel dibattito sull’overload cognitivo, diventa un’altra dimensione chiave. In un mondo saturato di dati, l’AI non serve solo a produrre contenuti, ma a filtrare realtà. E filtrare realtà significa esercitare potere. Un potere invisibile, algoritmico, spesso non auditabile.

Dal punto di vista manageriale, questo apre un interrogativo scomodo: chi controlla davvero le decisioni assistite dall’AI nelle organizzazioni? Il board? Il CTO? Il fornitore del modello? O il dataset di training? La risposta, per quanto destabilizzante, è che il controllo è distribuito e opaco. Ed è proprio questa opacità a generare rischio sistemico.

Floridi propone implicitamente una soluzione controintuitiva: meno mitologia tecnologica, più etica pubblica dell’AI. Una posizione che, tradotta in linguaggio corporate, significa governance strutturata, audit algoritmici, trasparenza decisionale e responsabilità verificabile. Concetti che suonano noiosi finché non esplode una crisi reputazionale legata a un sistema automatizzato.

La trasformazione del lavoro è un altro nodo strategico. Non si tratta semplicemente di sostituire compiti, ma di ridefinire competenze cognitive. L’AI non elimina il lavoro umano. Lo riconfigura. Richiede nuove competenze critiche, capacità di supervisione e interpretazione dei risultati algoritmici. In sintesi, meno esecutori e più orchestratori cognitivi.

Un dettaglio quasi filosofico, ma incredibilmente pratico, riguarda la distinzione tra mente e macchina. Confondere le due cose porta a errori di policy, di investimento e di design dei sistemi. Un sistema di machine learning non comprende il contesto. Simula pattern. E simulare non equivale a comprendere. Una differenza che, nel lungo periodo, separerà le aziende strategicamente mature da quelle sedotte dal marketing dell’AI.

Il messaggio, letto tra le righe, è spietatamente lucido: il rischio dell’intelligenza artificiale dipende più dagli attivi usi sociali che dalle sue capacità tecniche. Una frase che dovrebbe essere incisa nelle sale dei consigli di amministrazione delle big tech europee.

In un contesto di regolazione crescente, dall’AI Act europeo alle politiche di sovranità digitale, questa impostazione filosofica diventa un asset competitivo. Perché anticipa la direzione normativa globale: responsabilità umana aumentata, non sostituita dall’AI.

Alla fine, la vera provocazione non è dire che l’intelligenza artificiale non è intelligente. È ammettere che la nostra narrativa sull’AI è diventata più mitologica che scientifica. E che questa mitologia, se non corretta, rischia di generare decisioni strategiche sbagliate, allocazioni di capitale inefficienti e politiche pubbliche miopi.

Non dovremmo chiederci quanto l’AI sia intelligente. Dovremmo chiederci quanto la propria organizzazione sia pronta a governarla. E questa, paradossalmente, è una domanda molto più difficile. E molto meno glamour. Proprio per questo, incredibilmente urgente.