Succede una cosa molto italiana, e molto prevedibile, ogni volta che un filosofo apre bocca su un tema tecnico: si scatena il riflesso pavloviano dell’esperto di LinkedIn, che ha letto due paper su arXiv e magari ha testato un paio di prompt su ChatGPT. L’opinione pubblica, o meglio, il suo surrogato algoritmico fatto di commentatori compulsivi e indignati a rotazione, si lancia nella demistificazione del “professore che non capisce nulla”, con toni che oscillano tra il paternalismo informato e la derisione più aggressiva. È un fenomeno ricorrente, quasi prevedibile: la semplificazione diventa sospetta, la chiarezza viene scambiata per ignoranza, l’analogia per banalizzazione. Ma dietro l’indignazione si nasconde qualcosa di più inquietante: la profonda incapacità culturale di trattare la complessità senza feticizzare il gergo tecnico.

Questa volta è toccato a Luciano Floridi, filosofo dell’informazione con cattedre tra Oxford, Bologna e Yale, autore di decine di saggi sul rapporto tra tecnologia e società, nonché tra i pochissimi intellettuali europei ad aver anticipato con rigore teorico i dilemmi epistemologici dell’intelligenza artificiale. Durante un intervento alla Camera dei Deputati AI e Parlamento, noi di Rivista.AI eravamo li in giacca e cravatta, Floridi ha osato l’inosabile: ha usato un’analogia. I dati come ingredienti. Gli algoritmi come ricette. L’output come il piatto cucinato, magari una carbonara. Una metafora semplice, efficace, costruita ad arte per introdurre a un pubblico trasversale un tema che, se espresso nel suo linguaggio originale, rischierebbe di essere comprensibile solo a una frazione di specialisti. Apriti cielo. La semplificazione è diventata offesa. L’ironia colta è stata letta come superficialità. Floridi, nella narrazione dominante, è diventato il filosofo che confonde la statistica con il sugo.

Ma qui il problema non è né linguistico né filosofico. È strutturale. In un ecosistema comunicativo iper-frammentato, in cui il valore di un’affermazione è misurato dalla sua capacità di polarizzare, non c’è spazio per il pensiero intermedio, per la spiegazione costruita, per la complessità resa accessibile e soprattutto, non c’è tolleranza per l’analogia. Perché l’analogia, se fatta bene, smaschera l’inflazione retorica di molta pseudo-tecnologia. Spiega in poche frasi ciò che molti preferirebbero restasse avvolto nel mistero. Perché in fondo l’opacità conviene, soprattutto a chi deve vendere soluzioni che si giustificano solo se nessuno capisce come funzionano davvero.

Ora, torniamo ai fatti. Il punto dell’intervento di Floridi non era la carbonara, né tantomeno la retorica culinaria. Era l’introduzione a una riflessione di ben altro livello: l’evoluzione dell’intelligenza artificiale da paradigma logico-deduttivo a modello statistico-predittivo. In altre parole, il passaggio dalla symbolic AI basata su regole, rappresentazioni formali e inferenze deterministiche alla sub-symbolic AI, incarnata dai modelli neurali e, più recentemente, dalle architetture generative come i transformer. Questo spostamento, tutt’altro che banale, comporta una ridefinizione dei concetti stessi di conoscenza, inferenza, affidabilità e responsabilità.

In un articolo del 2025 pubblicato su Philosophy & Technology, Floridi formalizza questa transizione concettuale in quello che noi di Rivista definiamo The Floridi Conjecture, o anche Certainty-Scope Conjecture. La tesi è netta: esiste un trade-off strutturale tra la certezza e l’ampiezza nei sistemi di intelligenza artificiale. Se vuoi un sistema che fornisca risposte certe, verificabili, logicamente deducibili, devi limitare drasticamente il suo scope, ossia la sua capacità di operare in ambienti complessi, incerti e non formalizzati. Viceversa, se vuoi un sistema che operi in domini vasti, dinamici, real-world, allora devi rinunciare alla certezza rigorosa, e accettare risposte probabilistiche, fallibili, approssimative.

Non è una provocazione, è un vincolo epistemologico. Ed è lo stesso paradosso che il Financial Times ha sintetizzato così, in un’analisi sulla governance dell’AI: “Symbolic AI is built on trustable logic but is brittle in the face of uncertainty. Generative models thrive in ambiguity, but their reliability is an open question.” Lo stesso Wall Street Journal ha evidenziato recentemente come l’entusiasmo per i Large Language Models stia oscurando una verità scomoda: questi modelli non ragionano, predicono. Non comprendono, correlano. E la loro “intelligenza” è un effetto collaterale dell’ottimizzazione di funzione di perdita, non il risultato di un’intenzionalità computazionale.

Floridi, in questo contesto, fa esattamente ciò che un filosofo dovrebbe fare: esplicitare i limiti. Anziché cedere all’ideologia techno-solutionist secondo cui “basta più potenza computazionale e risolviamo tutto”, mostra che ogni scelta progettuale in AI è una negoziazione tra rigore e adattabilità, tra precisione formale e robustezza empirica. Una posizione perfettamente in linea con quanto sostenuto da Judea Pearl nel suo Book of Why, dove distingue tra correlazione (livello 1), intervento (livello 2) e controfattualità (livello 3), sottolineando come i modelli attuali siano bloccati al primo gradino. Non è un problema di potenza, ma di struttura.

Chi liquida questa riflessione con l’accusa di “banalizzazione” mostra di non aver capito o peggio, di non voler capire che la vera innovazione oggi non sta nel moltiplicare i layer delle reti neurali, ma nel costruire una epistemologia computazionale che sappia integrare rigore e complessità. Il che significa, tra le altre cose, imparare a comunicare. Anche con metafore. Anche con analogie. Anche con una carbonara, se serve.

Perché in fondo il problema non è Floridi. È il fatto che molti preferiscano un’illusione sofisticata a una verità semplice. Che confondano la complessità con la verbosità, e la chiarezza con l’incompetenza. Ma forse, come sempre, vale la legge fondamentale del dibattito digitale: più un’idea è chiara, più diventa pericolosa per chi costruisce potere sull’opacità.

Floridi ha semplicemente fatto il suo mestiere: chiarire e in un’epoca in cui la confusione è moneta corrente, questa è l’unica vera eresia.

Prof. la prossima volta li ignori.