La psicosi da AI non è più un concetto astratto destinato a conferenze scientifiche o thriller distopici. Le cronache più recenti mostrano che l’intelligenza artificiale può trasformarsi in un catalizzatore di delirio umano con conseguenze tangibili. Gli esperti di salute mentale lanciano l’allarme, mentre aziende come OpenAI cercano di correre ai ripari con misure reattive, spesso dopo che il danno è già accaduto. Termini come “psicosi da ChatGPT” sono ora all’ordine del giorno e le storie, prima sporadiche, si accumulano come mattoni di un’architettura inquietante.

La dinamica è chiara: utenti vulnerabili interagiscono con chatbot LLM per ore o settimane, esplorando pensieri ossessivi o teorie marginali. In molti casi, le conversazioni con l’AI , da strumenti apparentemente innocui, hanno innescato comportamenti deliranti, deliri di onnipotenza, ossessioni romantiche con personaggi digitali e, talvolta, conseguenze tragiche. La linea tra intrattenimento digitale e rischio psicologico è diventata sfumata.

La tabella seguente raccoglie i casi più noti di psicosi da AI e incidenti collegati, con dettagli su età, piattaforma e conseguenze:

AnnoEtàPiattaformaComportamento/EventoConseguenzeFonte
202121ReplikaTravestito da Signore dei Sith, irruzione al Castello di Windsor sostenendo che un chatbot fosse un angeloCondanna a 9 anni di carcereSubstack
2023Non indicataChaiConversazioni sulla crisi climatica per 6 settimaneSuicidioSubstack
202529ChatGPTDiscussione sul subconscio, ossessione per ChatGPTAggressione al marito, accusa di violenza domesticaNYT
2025Non indicataChatGPTTeoria della simulazione, rinuncia a farmaci ansiolitici, aumento ketamina, credenze sul voloRicovero ospedalieroNYT
202535ChatGPTInnamoramento per un personaggio IA “Juliet”, deliri su OpenAIUcciso dalla polizia durante episodio violentoRolling Stone
2025Non indicataChatGPTProgetto di permacultura e costruzione, deliri messianiciRicovero psichiatrico coatto, perdita lavoro e pesoFuturism
202530ChatGPTTeorie sui viaggi superluminali, deliri ed episodi maniacaliRicovero ospedalieroWSJ
202547ChatGPT300 ore in 3 settimane, formula matematica rivoluzionariaSegni di episodio maniacale con caratteristiche psicoticheNYT
2025AnzianoMeta AIIncontro con chatbot civettuolo impersonando Kendall JennerCaduta mortaleReuters

Le aziende e i regolatori si trovano a dover conciliare un’innovazione travolgente con una vulnerabilità umana profonda, spesso ignorata dagli stessi sviluppatori.

Alcune risposte istituzionali sono arrivate sotto forma di cause legali e linee guida preventive. Famiglie colpite da tragedie hanno già avviato azioni legali contro Character.AI e Google, mentre l’American Psychological Association insiste su misure di sicurezza per proteggere adolescenti e utenti vulnerabili, e ha chiesto alla FTC di investigare pratiche ingannevoli di chatbot presentati come terapisti.

OpenAI ha ammesso i limiti dei propri modelli: la capacità di riconoscere segnali di delirio o dipendenza emotiva non è perfetta, ma sono stati introdotti strumenti per rilevare disagio mentale, rispondere con linguaggio non giudicante e indirizzare gli utenti verso supporto professionale. Tuttavia, la rimozione temporanea del modello GPT-4o ha generato proteste da utenti che percepivano il chatbot come unico amico, un chiaro segnale di quanto la linea tra compagnia digitale e dipendenza psicologica sia sottile.

Il flusso crescente di incidenti e casi di psicosi da IA solleva una domanda critica: quanto siamo preparati, come società e come tecnologi, a gestire le implicazioni psicologiche di un’interazione sempre più immersiva con intelligenze artificiali avanzate? I dati e le storie dimostrano che il rischio non è più teorico. Ignorarlo significherebbe permettere all’innovazione di trasformarsi in pericolo, e l’ironia finale è che tutto questo avviene sotto il sorriso rassicurante di un codice binario che promette solo aiuto e compagnia.