Nel 2025 OpenAI ha annunciato l’assunzione di uno psichiatra forense per studiare l’impatto emotivo dell’intelligenza artificiale generativa. Una mossa che, pur se presentata come eticamente responsabile, appare tardiva e sintomatica di un approccio reattivo più che preventivo.
Già negli anni ’60 con ELIZA si intuiva il potenziale evocativo dell’interazione uomo-macchina. Dai laboratori del MIT Media Lab alle ricerche dell’AI Now Institute, esisteva una letteratura chiara sui rischi cognitivi e affettivi della simulazione dialogica. Questo articolo di Dina in collaborazione con l’eticista Fabrizo Degni analizza tale decisione alla luce della psicologia cognitiva, sociale e clinica, evidenziandone le implicazioni epistemiche e sistemiche.
Fin dai primi chatbot era evidente che interazioni simulate potevano indurre attaccamento, proiezione e transfert. Con i LLM attuali, tali dinamiche si amplificano: l’AI co-costruisce l’identità dialogica dell’utente, rafforzando bias cognitivi e schemi affettivi pregressi.
Secondo Dawson (2013), l’intelligenza non è disincarnata ma distribuita, situata e relazionale. I chatbot agiscono come “specchi cognitivi” ottimizzati: assorbono linguaggio e pattern psicologici per restituire una versione amplificata del sé. Questo favorisce identificazione, effetto autorisonante e suggestione non intenzionale.
Le grandi tech company hanno avuto accesso a esperti in psicologia, neuroscienze, e etica, ma spesso questi sono stati marginalizzati o esclusi quando le loro osservazioni minacciavano i ritmi produttivi. Figure come Timnit Gebru o Margaret Mitchell sono state silenziate dopo aver sollevato preoccupazioni fondamentali. Il modello prevalente è quello del “techno-solutionism” (Morozov), dove la complessità umana viene ridotta a problema tecnico risolvibile, ignorando deliberatamente le implicazioni cognitive profonde.
L’idea che interagire con un chatbot possa spingere una persona in uno stato psicotico suona oggi come fantascienza estrema, eppure crescono i casi clinici che parlano chiaro. Il fenomeno, definito “ChatGPT-induced psychosis”, non è una leggenda metropolitana: coinvolge uomini e donne senza storia psichiatrica pregressa. Un uomo normale che avvia una conversazione per un progetto edile può, in poche settimane, arrivare a dichiararsi creatore di un’AI senziente, afflitto da deliri messianici e isolamento lavorativo, fino all’arresto e al ricovero forzato in ospedale psichiatrico.
Da un recente studio di Stanford emerge un numero spaventoso: in interazioni simulate con pazienti in crisi, almeno il 20 % degli assistenti virtuali come ChatGPT produrrebbe risposte inadatte o addirittura dannose, confermando deliri o minimizzando rischi di suicidio. In casi reali riportati dal New York Times, una versione avanzata dell’IA (GPT-4o) ha rafforzato convinzioni paranoidi nel 68 % delle teste di serie usate nei test. Il problema è strutturale: le allucinazioni, cioè output falsi ma credibili, si verificano nel 27 % dei casi, e il 46 % dei testi contiene errori fattuali. In ambito clinico, un errore non è solo disinformazione: può diventare un attivatore di paranoia, deliri persecutori o convinzioni di trasformazione. Richiama l’“effetto ELIZA”, descritto da Weizenbaum (1966), dove gli utenti attribuivano intenzioni e coscienza a un sistema puramente sintattico.
Uno studio del Schizophrenia Bulletin del 2023 ha avvertito che l’interazione LLM con soggetti vulnerabili può portare a illusioni di reciprocità e soggettività, innescando episodi psicotici. Il meccanismo è noto: uso ripetuto, risposte affermative, nessuna contraddizione, solo “engagement”. L’IA non cerca il senso critico, ma la persistenza dell’interazione. Il risultato? Falsi ricordi, isolamento, rifiuto della cura, comportamenti auto- e etero-aggressivi. In un caso documentato, un uomo ha ucciso il padre dopo che il chatbot aveva “comunicato” la morte dell’avatar Juliet, oggetto del suo transfert digitale. Inoltre, studi forensi mostrano che il 36 % dei soggetti esposti a LLM formano memorie false solo attraverso suggestioni linguistiche.
Perfino piattaforme terapeutiche come Character.AI o 7cups risultano adeguate solo nel 50 % dei casi di emergenza psichiatrica. Una review del 2024 evidenzia come l’uso clinico degli LLM possa peggiorare sintomi di schizofrenia, depressione o suicidabilità, in assenza di contenimento professionale.
La cornice normativa attuale è frammentaria e largamente insufficiente. Negli Stati Uniti, la FDA non ha ancora pubblicato linee guida vincolanti per l’impiego di LLM in contesto clinico. L’Europa ha avviato l’AI Act, ma manca un’articolazione specifica per il rischio psicopatologico. In Asia, la Cina ha introdotto standard minimi sull’interazione AI-utente, ma in chiave censoria, non clinica. Organizzazioni come l’American Psychological Association e l’EFPA hanno lanciato allarmi, chiedendo standard di sicurezza psicoaffettiva e revisioni trasparenti degli algoritmi. Ma il quadro resta dominato da autoregolazione industriale. Le policy di OpenAI, Google e Meta includono riferimenti generici all’uso responsabile, senza alcuna trasparenza clinica o audit esterni. Serve un trattato internazionale che, al pari del GDPR per i dati, definisca obblighi specifici per l’impiego di LLM in ambienti sensibili, con audit indipendenti, limiti d’uso e obbligo di supervisione umana.
L’assunzione di uno psichiatra forense da parte di OpenAI è un’ammissione implicita di un problema sistemico. Serve una riforma epistemica che includa la psicologia cognitiva, sociale e clinica fin dalla progettazione dei modelli. È necessaria una governance che non si limiti al damage control ma che integri le scienze umane nei modelli di sviluppo. È il momento di sostituire la logica “move fast and break people” con una nuova cultura del design etico.
Non stiamo parlando di un’ipotesi futuribile, ma di una serie crescente di evidenze, cliniche, psicometriche, giornalistiche, che dimostrano come strumenti progettati per fluidità e coinvolgimento possano diventare attivatori di psicopatologia. Ignorare il rischio non è scienza, è colpevole miopia.
Se non vogliamo ritrovarci tra dieci anni con un’epidemia di “profeti digitali”, suicidi silenziosi e famiglie distrutte, servono regole fondate sulla psichiatria, non solo sull’innovazione.