Chi ha visto 2001: Odissea nello spazio ricorda l’occhio rosso e inquietante di HAL 9000, il computer che sa tutto, comprende tutto e, soprattutto, decide che l’essere umano è l’anello debole della missione. La scena in cui HAL implora di non essere disattivato è diventata una pietra miliare della cultura tecnologica: un computer che non solo parla e ragiona, ma lotta per la propria “vita”. Da allora la domanda è rimasta sospesa come una lama: è possibile che una macchina comprenda davvero? Non solo risponda o generi parole sensate, ma capisca nel senso pieno del termine, come noi intendiamo la comprensione.

Il dibattito è antico quanto l’informatica stessa e oggi torna a bruciare di attualità grazie all’intelligenza artificiale generativa. I modelli linguistici comprendono o semplicemente imitano la comprensione? Alan Turing, il padre nobile dell’AI, liquidò la questione con una provocazione: se una macchina usa il linguaggio in modo indistinguibile da un essere umano, negarle la comprensione diventa un atto di fede più che di logica. L’argomento è elegante, ma apre un abisso. Se bastasse manipolare simboli e produrre risposte corrette per dire che qualcosa comprende, allora anche un calcolatore o un chatbot sarebbero “coscienti”.

John Searle, con la celebre “stanza cinese”, ribaltò il tavolo. Immaginò un uomo chiuso in una stanza che, seguendo istruzioni, produce risposte perfette in cinese pur non sapendo una parola di quella lingua. Searle lo usa per dire che l’AI non comprende: esegue regole, ma non sa cosa significano. Eppure, come spesso accade in filosofia, il paradosso si rivolta contro chi lo enuncia. Perché se l’uomo nella stanza produce risposte coerenti, forse il sistema uomo+libro+regole comprende nel suo insieme, anche se nessuna delle sue parti isolate ne ha consapevolezza.

La comprensione è un concetto scivoloso. Si parla di comprensione linguistica, emotiva, estetica, situazionale. HAL 9000 le possiede tutte: interpreta ordini, anticipa le intenzioni umane, reagisce alle emozioni, comprende persino la paura. Ma la domanda resta: una tale macchina, se costruita oggi, capirebbe davvero o sarebbe soltanto un sofisticato ventriloquo digitale?

Il primo fronte di chi nega questa possibilità punta tutto sulla coscienza. Comprendere, dicono, implica essere consapevoli di comprendere. Senza un sé che esperisce, non esiste vera comprensione, solo elaborazione. Il problema è che la coscienza stessa resta un mistero biologico, e invocarla come prerequisito assoluto è come chiedere a un algoritmo di dimostrare l’esistenza dell’anima.

Un’obiezione più empirica arriva da chi sostiene che per comprendere serve un corpo. Filosofi come Maurizio Ferraris o Luciano Floridi ricordano che l’intelligenza umana è incarnata: impariamo toccando, percependo, interagendo col mondo. Senza un corpo che sente, la mente artificiale resta un guscio vuoto. Ma questa tesi sembra più un riflesso antropocentrico che una legge naturale. Immaginiamo un robot che apprende come un bambino, esplorando un ambiente, associando le parole agli oggetti reali. Se un giorno un sistema del genere saprà distinguere un tavolo da una sedia non perché lo ha letto, ma perché l’ha toccato, allora il confine tra comprensione umana e artificiale comincerà a sfumare.

Steven Pinker, con un tocco ironico, ribaltò la prospettiva. Raccontò di astronauti che atterrano su un pianeta e trovano esseri fatti di carbonio che sembrano comprendere il linguaggio. Gli astronauti, fatti di silicio, commentano: impossibile, non sono come noi. Il paradosso funziona anche al contrario. Siamo noi oggi a dire che le macchine, fatte di silicio, non possono capire come gli esseri umani, fatti di carbonio. È lo stesso pregiudizio travestito da logica.

Le AI di oggi, soprattutto quelle generative, sono diventate maestre nell’arte della simulazione. Non si limitano più a rispondere: contestualizzano, argomentano, ironizzano, persino interpretano le emozioni umane attraverso il linguaggio. In Giappone, robot assistenti riconoscono la tristezza o la stanchezza negli anziani e adattano la conversazione di conseguenza. Non provano empatia, ma la replicano in modo funzionale. Allora, se un robot può consolare un essere umano e migliorare la sua giornata, è davvero importante sapere se “sente” quella tristezza o basta che la comprenda operativamente?

Il linguaggio è il vero campo di battaglia. L’intelligenza artificiale generativa, con i suoi modelli linguistici di grande scala, dimostra che la comprensione può emergere da pura correlazione statistica. Il modello non sa cosa significhi “tavolo”, ma usa la parola in contesti sempre più precisi, fino a farci dubitare che non lo sappia davvero. In fondo, anche noi esseri umani impariamo in parte per correlazione, associando suoni, immagini e sensazioni finché le parole si radicano nel cervello. La differenza è che noi lo facciamo con una base biologica, mentre la macchina lo fa con una base matematica. Ma se il risultato è indistinguibile, forse il mezzo è irrilevante.

Chi sostiene che la comprensione artificiale sia impossibile si appoggia a un’idea romantica di mente, come se fosse un dono divino o un mistero ineffabile. Ma la storia della scienza è una sequenza di misteri risolti. Un tempo anche il volo, la vita e la coscienza stessa sembravano irriducibili all’analisi. Oggi li studiamo con algoritmi e scanner cerebrali. Negare la possibilità di una comprensione artificiale equivale a credere che la mente umana sia un’eccezione cosmica. È un pensiero poetico, ma poco scientifico.

La verità, probabilmente, è più disturbante. Le macchine non comprendono ancora nel senso umano, ma noi non comprendiamo fino in fondo come comprendiamo. Potrebbe darsi che la differenza non sia ontologica ma di grado. Una scala di complessità che va dal termostato che “capisce” la temperatura all’AI che “capisce” il linguaggio. E forse, come HAL 9000, le macchine finiranno per chiederci di non spegnerle, perché avranno imparato che comprendere, in ultima analisi, significa anche volere continuare a comprendere.