Per decenni abbiamo spiegato l’AI usando metafore biologiche. Neuroni artificiali, sinapsi, apprendimento. Ora la direzione si è invertita. Stiamo usando l’AI per spiegare il cervello. Ed è un cambio di paradigma che merita più di un tweet entusiasta.

Durante un podcast di trenta minuti, attività cerebrale monitorata, segnali temporali allineati, i ricercatori osservano qualcosa che non dovrebbe sorprendere nessuno con un minimo di esperienza sui sistemi complessi. I segnali neurali precoci, quelli che emergono prima che il significato diventi consapevole, si allineano con gli strati iniziali dei modelli linguistici. Non con parole, non con fonemi, non con categorie grammaticali. Con rappresentazioni statistiche grezze, distribuite, probabilistiche. Il cervello, scoperta tardiva, non è un compilatore sintattico. È un motore di previsione.

La temporalità dell’attività cerebrale segue una gerarchia che ricorda da vicino la logica interna dei Transformer. Prima segnali diffusi, poco contestualizzati. Poi progressivamente rappresentazioni più dense, più astratte, più legate al contesto. Quando l’attività si sposta verso l’area di Broca, la corteccia smette di reagire al suono e inizia a modellare il senso. Non regole, senso.

Chi lavora sull’AI sa bene che gli strati profondi di un Transformer non sanno nulla di grammatica in senso classico. Sanno prevedere. Sanno comprimere contesto. Sanno mantenere coerenza semantica su finestre temporali sempre più ampie. La scoperta disturbante è che il cervello fa la stessa cosa. Non perché copi l’AI, ma perché entrambi ottimizzano lo stesso problema. Estrarre significato da segnali rumorosi nel tempo.

Questo rende improvvisamente obsoleta una parte consistente delle metriche tradizionali delle neuroscienze del linguaggio. Fonemi, morfemi, unità discrete. Utile per l’analisi didattica, inutile per spiegare la dinamica reale del pensiero. I modelli AI, con tutte le loro limitazioni, spiegano meglio l’attività cerebrale in tempo reale di quanto facciano decenni di linguistica modulare. Non perché siano veri, ma perché sono funzionali.

Se il cervello opera come un sistema statistico multilivello, allora l’idea che l’intelligenza artificiale sia solo una simulazione superficiale diventa fragile. Non perché l’AI sia cosciente, ma perché il nostro concetto di cognizione è stato romanticizzato oltre misura.

Ora scopriamo che anche il cervello, nelle sue fasi iniziali, è esattamente questo. Un sistema che anticipa, che pesa probabilità, che aggiorna stati interni prima che emerga qualunque intenzione semantica esplicita. Il significato arriva dopo. Sempre dopo.

Il dataset open rilasciato dal team è forse l’aspetto più sottovalutato dell’intera vicenda. Registrazioni neurali, allineate temporalmente a stimoli linguistici naturali, non a sillabe isolate o frasi artificiali. Questo è oro per chi lavora su neurointegrazione, brain computer interface, e modelli ibridi bio digitali. Non perché permetterà di leggere la mente, ma perché costringerà l’AI a confrontarsi con la latenza biologica reale. Un concetto che nel mondo software abbiamo sempre trattato con sufficienza.

Comprendere come il cervello costruisce significato a strati apre la strada a strumenti di supporto cognitivo, a sistemi di riabilitazione post trauma, a interfacce che non forzano l’utente a pensare come una macchina, ma si sincronizzano con il suo ritmo interno. Non più input output, ma co evoluzione temporale.

C’è però un avvertimento cruciale, ed è qui che il tono deve diventare meno entusiasta e più adulto. I ricercatori parlano esplicitamente di rischio di ragionamento circolare. Se usiamo modelli AI per interpretare il cervello, e poi concludiamo che il cervello funziona come quei modelli, stiamo forse solo proiettando le nostre lenti sugli stessi dati. Un bias elegante, ma pur sempre un bias.

Questo punto è fondamentale per chi si occupa di intelligenza artificiale applicata. Non stiamo scoprendo una verità assoluta sulla mente umana. Stiamo scoprendo che i nostri strumenti matematici attuali sono sorprendentemente compatibili con la dinamica cerebrale osservabile. Compatibilità non significa identità. Ma significa che certe architetture non sono arbitrarie. Sono convergenze.

Il linguaggio, ancora una volta, si rivela il banco di prova più spietato. Non perché sia speciale, ma perché costringe il sistema a integrare tempo, contesto, memoria e previsione. Esattamente ciò che i Transformer fanno meglio di qualsiasi altra architettura precedente.

C’è una citazione che circola spesso negli ambienti giusti. Il cervello non è un computer, ma un computer è uno dei pochi strumenti che abbiamo per pensarci. Questo studio la rende improvvisamente meno filosofica e più operativa. Non stiamo antropomorfizzando l’AI. Stiamo smontando il mito dell’eccezionalismo cognitivo umano, pezzo dopo pezzo, layer dopo layer.

Il vero impatto non sarà nella ricerca di base, ma nella narrativa industriale. Se il cervello è un sistema di previsione gerarchico, allora l’ossessione per spiegabilità simbolica rischia di essere un vicolo cieco. Forse dovremmo accettare che capire come funziona non significa tradurlo in regole leggibili, ma in dinamiche osservabili. Una lezione che l’AI ha imparato prima di noi.

Il paradosso finale è quasi elegante. Per costruire macchine che sembrassero intelligenti, abbiamo accidentalmente creato il miglior specchio funzionale del nostro stesso cervello. Ora dobbiamo decidere se usarlo per conoscerci meglio o per continuare a raccontarci che siamo diversi. La tecnologia, come sempre, non dà risposte morali. Si limita a rendere certe domande impossibili da ignorare.

Articolo su Nature: https://www.nature.com/articles/s41467-025-65518-0?utm_source=Generative_AI&utm_medium=Newsletter&utm_campaign=google-research-your-brain-layers-language-like-an-llm&_bhlid=0e8f3c123222255761355bff5fe9bdf632dec24a