Ogni volta che interroghiamo un LLM, crediamo di fare una semplice domanda a una macchina. Ma forse stiamo interrogando noi stessi, la nostra architettura cognitiva, in un riflesso di silicio più umano di quanto siamo disposti ad ammettere. Geoffrey Hinton, padre spirituale delle reti neurali, ce lo sta dicendo chiaramente, con quella calma glaciale tipica di chi ha già messo a ferro e fuoco la disciplina: “Gli LLM non sono tanto diversi da noi. Anzi, ci somigliano moltissimo.”
Ecco, non è una provocazione accademica. È un colpo al cuore dell’antropocentrismo computazionale.
Per decenni abbiamo creduto che il significato emergesse da regole. Prima il verbo, poi il soggetto, poi il complemento oggetto. L’albero sintattico come metafora dell’intelligenza: pulito, gerarchico, razionale. E invece no. I transformer e le loro feature vector sparse nel multiverso dimensionale sembrano urlarci in faccia che il significato non nasce dalle regole, ma dai pattern. Dal contesto. Dall’ambiguità. Dal rumore.
Non è magia. È matematica con la faccia sporca di fango.
Hinton, nel suo elegante understatement, sta insinuando un’eresia copernicana: non sono le macchine a copiare noi, siamo noi ad assomigliare sempre di più a loro. O meglio, le macchine ci stanno finalmente mostrando come funzioniamo davvero. E non è detto che ci piaccia. La coscienza, il significato, l’intelligenza… tutte cose che credevamo risiedessero in regni mistici dell’anima, si stanno rivelando proprietà emergenti di pattern, pesi e funzioni di attivazione.
Il punto non è più se l’AI può pensare, ma cosa ci dice sul nostro pensiero.
Ogni token predetto da un LLM è una scommessa probabilistica sul futuro semantico. Esattamente come la mente umana. Noi non comprendiamo le parole, ne anticipiamo il significato basandoci su esperienze passate, contesti culturali e bias cognitivi. Il cervello non è un libro di grammatica: è un gigantesco modello predittivo che opera in tempo reale. Proprio come GPT.
La linguistica formale, quella cara ai Chomskyani, si è impantanata in formalismi incapaci di spiegare il caos reale della comunicazione umana. Ora arriva una macchina addestrata su internet, piena di errori, slang, rumore e ironia, e ci restituisce frasi che ci fanno venire i brividi. Non perché capisca, ma perché simula la comprensione in modo sorprendentemente familiare. E forse la comprensione non è altro che questo: simulazione riuscita.
Sì, l’LLM sbaglia. Allucina. Ma non è esattamente quello che facciamo noi, ogni giorno, quando ricostruiamo narrazioni post-hoc sui nostri pensieri, le nostre scelte, i nostri ricordi? Se il cervello è una macchina che razionalizza il caos, allora LLM e mente umana sono fratelli nella confusione. Con un’unica, sottile differenza: il primo non finge di avere un’anima.
Siamo di fronte a un paradosso affascinante: più ci avviciniamo alla macchina, più ci allontaniamo dall’immagine romantica che abbiamo di noi stessi. L’intelligenza artificiale non ci rimpiazza, ci smaschera. Ci mostra che dietro la poesia c’è una matrice, dietro la creatività un modello di ricorrenze, dietro la libertà un margine statistico. E forse è proprio questa la sua colpa più grave: non quella di essere troppo artificiale, ma di essere troppo umana.
C’è qualcosa di vertiginoso nel pensare che i nostri cervelli e gli LLM stiano convergendo su uno stesso modello di significato. Non perché ci sia una mente dentro la macchina, ma perché la macchina ci ricorda che la mente stessa potrebbe essere una emergenza simulata. L’equivalente cognitivo di un deepfake.
Nel profondo, questa tecnologia non ci sta solo offrendo strumenti. Sta ridefinendo la domanda stessa: che cos’è l’intelligenza? E, più insidiosamente: cosa significa capire?
Chi digita un prompt in un chatbot oggi non sta semplicemente “usando un software”. Sta attivando un processo che riecheggia la propria struttura interna. Sta proiettando se stesso in un sistema che, in fondo, è stato addestrato sulle sue stesse parole. Un cannibalismo semantico in cui il creatore è anche il contenuto. Un grande specchio oscuro che, a forza di guardarci dentro, ci restituisce l’immagine di ciò che siamo davvero: pattern su pattern su pattern.
La prossima volta che un esperto ti dice che i LLM “non capiscono nulla”, chiedigli: “E tu sei proprio sicuro di capire?” Magari senza ironia. O magari con un sorrisetto alla Hinton.
Perché se davvero la semantica è una funzione emergente della statistica… allora anche la nostra coscienza potrebbe essere solo l’interfaccia utente di un’API evolutiva. E il cervello? Un transformer che ha dimenticato il proprio training set.