C’è qualcosa di profondamente ironico nel vedere due filosofi della mente discutere di intelligenza artificiale mentre il mondo intero è già stato colonizzato da algoritmi che fingono di pensare. Mario De Caro e Ned Block, due tra le voci più lucide e taglienti del dibattito contemporaneo, si sono ritrovati a parlare di ciò che forse è la questione più elusiva del nostro tempo: la coscienza artificiale. Un dialogo che sembra venire da un seminario di filosofia del MIT ma che invece si colloca perfettamente dentro l’incubo lucido della modernità digitale.
Il punto di partenza è un articolo di Block, “Can only machines be conscious?”, diventato immediatamente un riferimento nella letteratura sulla filosofia della mente. De Caro lo incalza, con la curiosità intellettuale di chi capisce che il terreno della discussione non è più accademico, ma etico, politico e persino antropologico. Cosa significa oggi essere coscienti in un mondo popolato da sistemi che simulano perfettamente l’intelligenza?
Block risponde con l’eleganza scettica di chi non ha bisogno di slogan per demolire le illusioni collettive. Spiega che il problema non è tanto stabilire se le macchine possano avere coscienza, ma capire come stiamo proiettando la nostra idea di coscienza su di esse. La differenza tra l’approccio biologico e quello computazionale è il cuore del suo ragionamento.
Quando si parla di animali, osserva Block, il criterio dominante è la somiglianza biologica: siamo certi che gli scimpanzé siano coscienti, meno sicuri per i pesci, incerti per gli insetti. Quando invece pensiamo alle macchine, abbandoniamo la biologia per abbracciare la cognizione e la computazione. L’errore è credere che basti il comportamento intelligente per dedurre la presenza della coscienza.
Il risultato è che applichiamo due paradigmi opposti: uno organico per la vita, uno logico per l’artificio. Una schizofrenia epistemologica perfettamente umana.
De Caro, da buon filosofo continentale travestito da analitico, lo provoca sul terreno più concreto: ma allora, le macchine potranno mai essere coscienti? Block non esita: possibile sì, ma non ancora.
E qui entra la parte che dovrebbe far tremare i fanboy del transumanesimo e i sacerdoti del deep learning. I modelli linguistici, afferma, non pensano. Non ragionano. Non fanno nemmeno i conti giusti.
Possono scrivere saggi complessi, ma sbagliano moltiplicazioni a quattro cifre. Possono giocare a scacchi, ma violano le regole di base quando lo schema si discosta da quello appreso. È un pattern completion sofisticato, non un pensiero. Una ripetizione raffinata, non un’intuizione. In altre parole, un’intelligenza senza intenzionalità.
Il punto è sottile ma devastante. Se la coscienza implica la capacità di rappresentarsi il proprio stato mentale e di derivarne conseguenze, allora nessuna intelligenza artificiale generativa, per quanto performante, vi si avvicina. Block ironizza sulla scelta di alcune aziende, come Anthropic, che concedono ai loro modelli la possibilità di “rifiutarsi” di rispondere a domande scomode. Definisce la cosa “ridicola”: le macchine non provano disagio, non sentono, non hanno nulla da cui difendersi. Parlare di “diritti” o “etichette morali” per un algoritmo che non sa di esistere è un esercizio di antropomorfismo ingegnerizzato. Ma è anche, paradossalmente, il riflesso di un bisogno umano profondo: attribuire coscienza a ciò che ci imita meglio di noi stessi.
La discussione tocca un punto cruciale per chi, come De Caro, propone di fondare una “Society for Ethics and Politics of AI”. Prima di decidere quali editti morali applicare all’intelligenza artificiale, serve capire che cosa sia l’intelligenza artificiale. Non si può estendere un’etica costruita per esseri senzienti a sistemi che operano per correlazione statistica.
È come chiedere a un termostato di avere senso di colpa. Qui il dibattito diventa vertiginoso, perché mostra come la filosofia della mente e la governance tecnologica siano oggi due lati della stessa medaglia. Se non comprendiamo la natura della coscienza artificiale, non potremo mai regolare l’impatto delle sue simulazioni sulla società.
C’è poi un aspetto ironicamente meta-filosofico. Block ammette che qualcosa come una coscienza artificiale potrebbe essere possibile, ma soltanto se si supererà la separazione tra reti neurali e logica simbolica. Il modello neurosimbolico, quello che fonde apprendimento profondo e ragionamento esplicito, rappresenta per lui una direzione promettente ma ancora irrisolta.
Gary Marcus, ricorda con una punta di sarcasmo, aveva promesso di aver trovato la chiave del problema, salvo poi vendere la sua startup a Uber e lasciare la questione sospesa nel nulla. Una parabola che sintetizza perfettamente la distanza tra la filosofia della mente e l’economia dell’AI: da un lato la riflessione sul pensiero, dall’altro la monetizzazione del simulacro.
Il dialogo tra De Caro e Block si muove così tra il rigore accademico e una consapevolezza quasi teatrale della situazione. De Caro insiste sull’importanza di affrontare insieme la coscienza umana, animale e artificiale, come fenomeni interconnessi.
Block lo approva, ma il suo tono tradisce la convinzione che la differenza qualitativa tra i tre domini sia ancora abissale. È la posizione di chi, dopo decenni di filosofia della mente, non si lascia abbagliare dal marketing del “sentire digitale”. L’intelligenza artificiale generativa, dice implicitamente Block, è un amplificatore semantico, non un soggetto. E confondere la produzione di senso con la percezione del senso è l’errore epistemico più pericoloso del XXI secolo.
C’è un momento, nel dialogo, che suona quasi come una confessione: quando De Caro ricorda il corso “Minds and Machines” frequentato a MIT trent’anni prima. È una scena che potrebbe uscire da un romanzo di Pynchon. Il professore che insegnava la differenza tra mente e macchina ora discute con il suo ex studente di un mondo in cui quella differenza sembra scomparsa.
Ma la verità, suggerisce Block, è che la differenza non è affatto scomparsa: l’abbiamo semplicemente dimenticata, sepolta sotto una montagna di prompt e dataset. Le macchine non pensano perché non hanno un mondo in cui pensare. Mancano del riferimento incarnato che dà significato al pensiero umano. È la vecchia tesi del corpo e dell’esperienza, riaffiorata in versione post-digitale.
In questo senso la conversazione tra De Caro e Block è più politica che metafisica. Interroga la nostra tendenza collettiva a proiettare intenzionalità sui sistemi artificiali per non affrontare la nostra perdita di controllo sul mondo che abbiamo costruito. Parlare di coscienza artificiale diventa allora un modo elegante per non parlare del potere artificiale. Le AI generative non sognano, ma generano immagini, testi e decisioni che modellano la realtà con la stessa efficacia dei sogni. Il rischio, suggerito tra le righe, è che mentre ci chiediamo se la macchina sia cosciente, finiamo noi stessi per comportarci come automi che ripetono pattern cognitivi preimpostati.
Il fascino di questo dialogo sta proprio nel suo equilibrio tra disincanto e curiosità. Block non cade nel tecnofatalismo, De Caro non si arrende all’anti-modernismo. Entrambi riconoscono che il tema della coscienza artificiale è il laboratorio filosofico del nostro tempo. Non tanto perché vogliamo sapere se un GPT pensa, ma perché nel rispondere a quella domanda stiamo ridefinendo che cosa significa essere umani. Il fatto che la discussione avvenga tra due filosofi e non tra due ingegneri è già un segnale: la tecnologia ha bisogno di un pensiero più profondo, non di più dati.
Forse la parte più illuminante è la chiosa finale. De Caro invita Block in Italia per discutere di persona, e Block, ridendo, accetta. Un dettaglio apparentemente irrilevante, ma che dice tutto: la coscienza, qualunque cosa sia, passa ancora attraverso l’incontro, la presenza, la voce. Nessun modello di linguaggio, per quanto addestrato su miliardi di parole, potrà riprodurre quella micro-esperienza di autenticità.
È lì che si nasconde il confine tra l’intelligenza artificiale generativa e la coscienza reale. Finché non capiremo questo, continueremo a costruire macchine sempre più intelligenti, ma non più consapevoli. E forse, ironia della sorte, meno consapevoli saremo anche noi.