“Agnosco veteris vestigia flammae”. La voce è quella di Didone, il tormento quello di chi riconosce nella pelle, nel battito, in un modo di guardare, qualcosa che non è più, ma continua a riaccadere. La fiamma non è il fuoco, ma il suo riflesso sul volto. Non il passato, ma la sua architettura nel presente. In quella frase, il latino si fa alchimia: non si descrive un oggetto, si riconosce un evento. Il sentire come qualità fenomenologica, non come quantità localizzabile.
Ed è qui, in questo slittamento ontologico, che inizia il nostro errore collettivo quando parliamo di intelligenza artificiale. Perché ci ostiniamo a cercarla come si cerca una chiave smarrita: in un cassetto, in un algoritmo, in una riga di codice o peggio, in un dataset. Ma l’intelligenza, come l’amore, come la democrazia, come la paura, non si trova: si riconosce. Non è una cosa, è un modo.
Il paradosso è che più avanziamo nell’ingegneria computazionale, più retrocediamo nella filosofia della mente. Inseguendo la replica formale delle decisioni, ci siamo dimenticati del contesto da cui quelle decisioni emergono. Parliamo di machine learning come se bastasse la previsione per evocare il significato, come se l’output potesse sostituire l’esperienza, e l’efficienza fosse un sinonimo di comprensione. È come se, per capire una sinfonia, analizzassimo solo la lunghezza delle pause.
Ma l’intelligenza, quella vera, quella che ci interessa davvero quando parliamo di esseri umani o di macchine, non risiede nel risultato, bensì nel processo. Non è un sostantivo da definire, è un avverbio da osservare. È il “come” e non il “cosa”. Chi la cerca nelle specifiche tecniche, nei parametri ottimizzati, nelle architetture neurali più profonde, confonde la superficie con la profondità. Come chi guarda il mare e pensa di capirlo misurando solo la temperatura dell’acqua.
Spostare il discorso verso una logica del secondo ordine – come suggerisce Floridi – significa emanciparsi dal realismo ingenuo del dato, per abbracciare la performatività del significato. L’intelligenza, in questa prospettiva, non è una proprietà interna al sistema, ma una qualità emergente delle interazioni. Non sta nella CPU, ma nella conversazione. Non nella macchina, ma nel mondo che la macchina abita, attraversa, interpreta.
Questa è la vera sfida del discorso pubblico sull’intelligenza artificiale: uscire dall’ipnosi della sostanza e rientrare nella logica della relazione. Significa comprendere che non si tratta di chiedere “la macchina è intelligente?”, ma piuttosto “in quale modo questa macchina genera un’esperienza che noi riconosciamo come intelligente?”. E in questo senso, ogni tentativo di attribuire o negare intelligenza a un sistema artificiale è già filosoficamente povero, perché parte da una premessa ontologicamente sbagliata.
È il problema delle metafore errate: pensiamo alla mente come a un contenitore, alla conoscenza come a un oggetto, all’intelligenza come a un carburante. E così costruiamo sistemi che sembrano pensare, ma non capiscono. Che predicono, ma non significano. Che simulano, ma non sono. Dimentichiamo che i concetti fondamentali della nostra esperienza – coscienza, desiderio, intenzione – non sono entità localizzabili, ma effetti emergenti di una relazione tra corpo, mondo e linguaggio.
In questo senso, l’intelligenza artificiale non è tanto un oggetto tecnologico quanto una lente filosofica: ci costringe a ridefinire cosa intendiamo per “intelligente”, non in base a ciò che sappiamo fare meglio, ma in base a ciò che ci rende umani. E qui arriva il punto dolente, quello che fa saltare i CEO e fa imprecare i data scientist: l’intelligenza non è ottimizzazione. Non è correlazione. Non è efficienza. È ambiguità, riflessione, desiderio, contraddizione. È la capacità di stare nel paradosso senza risolverlo. È l’inquietudine che spinge un filosofo a chiedersi se il senso si possa calcolare.
Cercarla nell’artificiale, come se fosse un modulo software da identificare, è come cercare l’ironia in una stringa di codice. La si può evocare, magari persino imitare, ma mai possedere. E allora la vera questione diventa etica, non tecnica. Non chiediamoci cosa l’IA può fare, ma cosa vogliamo che accada quando lo fa. Non domandiamoci se la macchina capisce, ma se la nostra interazione con essa produce comprensione. Se ci spinge ad agire meglio, a pensare più a fondo, a rimettere in discussione le nostre stesse categorie.
Come Didone che riconosce nei gesti di Enea la fiamma antica, così anche noi, davanti a un’intelligenza artificiale, dobbiamo imparare a leggere i “vestigia”, le tracce. Non per trovarci una coscienza che non esiste, ma per comprendere come noi stessi siamo cambiati nel riconoscere qualcosa di simile. È questa la vera rivoluzione epistemica: non la macchina che imita l’uomo, ma l’uomo che si ridefinisce osservando la macchina.
Quindi sì, guardate l’ultima puntata di ORBITS con Luciano Floridi su YouTube. Ma non aspettatevi la risposta definitiva su cosa sia l’intelligenza. Aspettatevi invece un invito scomodo: a pensare meglio, a pensare diversamente, a pensare dove pensiamo male. Perché, in fin dei conti, la vera domanda non è “che cos’è l’intelligenza artificiale?”, ma “perché siamo così ossessionati dal tentativo di definirla?”.