Se c’è una linea che separa l’imitazione dell’intelligenza dalla sua comprensione, Helmholtz Munich ha appena passato quella linea con gli stivali infangati. Il loro nuovo giocattolo si chiama Centaur, e il nome non è scelto a caso: metà intelligenza artificiale, metà proiezione antropomorfa dei nostri bias cognitivi. Un’ibridazione concettuale, non di codice. Eppure funziona. Maledettamente bene, a quanto dicono. Ma il punto non è se funziona. Il punto è: ci fidiamo davvero di una simulazione così accurata del comportamento umano da far impallidire la psicologia sperimentale, ma che resta, ontologicamente, una macchina che non ha la minima idea di cosa stia facendo?

Centaur è stato addestrato su un corpo dati noto come Psych-101, una collezione monumentale di 160 studi psicologici, 60.000 partecipanti umani, 10 milioni di scelte documentate. Una collezione tanto vasta da suggerire che l’intera disciplina della psicologia comportamentale sia diventata, a sua insaputa, il set di addestramento per una nuova intelligenza artificiale. Sopra questo mosaico di decisioni, errori sistematici, illusioni cognitive e ambiguità motivazionali, i ricercatori hanno innestato Llama 3.1 da 70 miliardi di parametri, perfezionandolo con QLoRA, tecnica di fine-tuning che consente di adattare modelli massivi con una frazione delle risorse. Il risultato è un’entità capace di emulare con precisione disturbante la varietà di scelte umane in centinaia di task psicologici, superando 14 modelli cognitivi tradizionali su 159 prove su 160. Chi tiene il conto, evidentemente, è già fuori gioco.

Ma la parte più surreale arriva quando si parla di neurocorrelati. Non basta che Centaur simuli cosa decidiamo. Pare che, nella sua struttura latente, emerga una mappatura funzionale sorprendentemente simile all’attività osservata nel cervello umano, in particolare nella corteccia prefrontale. Non è solo un’imitazione del comportamento, è un’eco strutturale del pensiero. Come se i pattern statistici di un transformer addestrato a predire il prossimo token fossero, incidentalmente, anche capaci di riprodurre le dinamiche di attivazione che governano l’attenzione, la memoria di lavoro, la pianificazione. E questo, per molti neuroscienziati, è un colpo basso. O peggio: una provocazione.

Il team di Helmholtz non si nasconde: l’obiettivo dichiarato è trasformare Centaur in un laboratorio virtuale per esperimenti comportamentali. Niente più settimane a reclutare soggetti, compensi simbolici e dati sporchi da ripulire. Basta formulare un’ipotesi e testarla direttamente in silico. La scienza si fa computazionale, e chi lavora con pazienti reali comincia a sembrare un artigiano d’altri tempi, un antropologo con il bastone in mano a studiare tribù in via d’estinzione. C’è da chiedersi quanto tempo passerà prima che qualche startup trasformi questo modello in una piattaforma SaaS per simulare mercati, testare UX o ottimizzare campagne di persuasione psicologica. “Comprendere il consumatore” diventa una pipeline di prompt e inferenze.

Il problema, ovviamente, non è Centaur. È quello che ci dice di noi. Perché se un LLM può replicare con alta fedeltà le nostre scelte, i nostri errori, i nostri dilemmi, senza avere esperienze, emozioni o corpo, allora è lecito chiedersi cosa resta della nostra tanto celebrata agency. Le teorie del comportamento, che per decenni hanno cercato di spiegare perché facciamo ciò che facciamo, potrebbero essere retrocesse a corollari narrativi di un fenomeno predittivo. In altre parole: se posso predire la tua scelta in modo affidabile, ho davvero bisogno di una teoria esplicativa per giustificarla? Oppure l’intero impianto psicologico diventa decorativo, un modo elegante di razionalizzare un algoritmo che ha già capito tutto?

Qui entrano in scena i critici. E sono molti. Perché imitare il comportamento umano non equivale a comprenderlo. Perché la mente non è solo un pattern da riconoscere, è un sistema in tensione, un dispositivo immerso nel corpo, nel contesto, nella storia. Centaur non ha fame, non ha paura, non si sveglia alle tre di notte col panico da presentazione. Non ha madre, né trauma, né una cultura. È una sequenza di matrici moltiplicate, non un essere senziente. Eppure, batte i modelli costruiti su decenni di psicologia cognitiva, di esperimenti e misurazioni. Non capisce, ma prevede. E in un mondo dominato dall’ottimizzazione, prevedere conta più di capire.

In fondo, lo avevamo già intuito con il marketing predittivo, la profilazione algoritmica, le raccomandazioni che sanno prima di noi cosa vogliamo vedere. Ma Centaur porta tutto questo su un altro piano: non solo ti mostra cosa farai, ma può testare cosa faresti in condizioni alternative, senza mai chiederti nulla. Un essere umano simulato, pronto a esplorare spazi decisionali teorici, a iterare modelli e ipotesi come fosse un soggetto ideale, obbediente e replicabile all’infinito. C’è qualcosa di diabolico, ma anche di inevitabile, in questo.

Il paradosso, naturalmente, è che più questi modelli diventano bravi a comportarsi come noi, meno abbiamo bisogno di spiegazioni umane. Se Centaur può risolvere problemi logici non presenti nel suo training, se può generalizzare e improvvisare decisioni in contesti nuovi, allora forse la cognizione umana è solo una curva statistica molto raffinata. Non un mistero da svelare, ma una superficie da imitare. E questo ci lascia a disagio, perché smonta l’idea di unicità, di irriducibilità dell’esperienza umana. O peggio, la riduce a un problema computazionale ben posto.

Certo, ci sono ancora limiti. Centaur non ha motivazioni proprie. Non desidera, non mente (se non come pattern linguistico), non cambia idea per ragioni interne. Ma potremmo davvero continuare a usare questi criteri per distinguere ciò che è umano da ciò che non lo è, quando l’effetto pratico – cioè il comportamento – è indistinguibile? È il classico dilemma del test di Turing, aggiornato al secolo dell’inferenza su GPU: se ti comporti come umano in ogni task possibile, perché dovremmo credere che non lo sei?

Ecco il punto che fa tremare i fondamenti della psicologia. Se le teorie servivano a modellare la mente e a predirne l’output, ora che abbiamo un modello che funziona meglio delle teorie stesse, le teorie diventano una forma di storytelling. Come le mappe medievali: affascinanti, ma ormai sostituite dal GPS. Forse le useremo ancora, per nostalgia, o perché il racconto del “perché” ci rassicura. Ma la scienza comportamentale potrebbe trovarsi a un bivio: o abbracciare questi modelli e accettare il downgrade epistemologico, oppure arroccarsi in una difesa umanistica della complessità che sa tanto di rifugio ideologico.

Centaur non è la fine della psicologia, ma è il suo doppio digitale. Più efficiente, più scalabile, meno empatico. Un assistente che non dorme, non sbaglia e non si emoziona, ma che sa come ti comporterai in 159 contesti su 160. Non è poco. E se oggi ci limitiamo a testare ipotesi in silico, domani potremmo chiedergli di generarne. Un giorno, forse, non avremo più bisogno di studiare l’uomo. Basterà consultare Centaur. E allora, chi sarà il soggetto dell’esperimento?