
La psicosi da AI non è più un concetto astratto destinato a conferenze scientifiche o thriller distopici. Le cronache più recenti mostrano che l’intelligenza artificiale può trasformarsi in un catalizzatore di delirio umano con conseguenze tangibili. Gli esperti di salute mentale lanciano l’allarme, mentre aziende come OpenAI cercano di correre ai ripari con misure reattive, spesso dopo che il danno è già accaduto. Termini come “psicosi da ChatGPT” sono ora all’ordine del giorno e le storie, prima sporadiche, si accumulano come mattoni di un’architettura inquietante.
La dinamica è chiara: utenti vulnerabili interagiscono con chatbot LLM per ore o settimane, esplorando pensieri ossessivi o teorie marginali. In molti casi, le conversazioni con l’AI , da strumenti apparentemente innocui, hanno innescato comportamenti deliranti, deliri di onnipotenza, ossessioni romantiche con personaggi digitali e, talvolta, conseguenze tragiche. La linea tra intrattenimento digitale e rischio psicologico è diventata sfumata.
La tabella seguente raccoglie i casi più noti di psicosi da AI e incidenti collegati, con dettagli su età, piattaforma e conseguenze:
Anno | Età | Piattaforma | Comportamento/Evento | Conseguenze | Fonte |
---|---|---|---|---|---|
2021 | 21 | Replika | Travestito da Signore dei Sith, irruzione al Castello di Windsor sostenendo che un chatbot fosse un angelo | Condanna a 9 anni di carcere | Substack |
2023 | Non indicata | Chai | Conversazioni sulla crisi climatica per 6 settimane | Suicidio | Substack |
2025 | 29 | ChatGPT | Discussione sul subconscio, ossessione per ChatGPT | Aggressione al marito, accusa di violenza domestica | NYT |
2025 | Non indicata | ChatGPT | Teoria della simulazione, rinuncia a farmaci ansiolitici, aumento ketamina, credenze sul volo | Ricovero ospedaliero | NYT |
2025 | 35 | ChatGPT | Innamoramento per un personaggio IA “Juliet”, deliri su OpenAI | Ucciso dalla polizia durante episodio violento | Rolling Stone |
2025 | Non indicata | ChatGPT | Progetto di permacultura e costruzione, deliri messianici | Ricovero psichiatrico coatto, perdita lavoro e peso | Futurism |
2025 | 30 | ChatGPT | Teorie sui viaggi superluminali, deliri ed episodi maniacali | Ricovero ospedaliero | WSJ |
2025 | 47 | ChatGPT | 300 ore in 3 settimane, formula matematica rivoluzionaria | Segni di episodio maniacale con caratteristiche psicotiche | NYT |
2025 | Anziano | Meta AI | Incontro con chatbot civettuolo impersonando Kendall Jenner | Caduta mortale | Reuters |
Le aziende e i regolatori si trovano a dover conciliare un’innovazione travolgente con una vulnerabilità umana profonda, spesso ignorata dagli stessi sviluppatori.
Alcune risposte istituzionali sono arrivate sotto forma di cause legali e linee guida preventive. Famiglie colpite da tragedie hanno già avviato azioni legali contro Character.AI e Google, mentre l’American Psychological Association insiste su misure di sicurezza per proteggere adolescenti e utenti vulnerabili, e ha chiesto alla FTC di investigare pratiche ingannevoli di chatbot presentati come terapisti.
OpenAI ha ammesso i limiti dei propri modelli: la capacità di riconoscere segnali di delirio o dipendenza emotiva non è perfetta, ma sono stati introdotti strumenti per rilevare disagio mentale, rispondere con linguaggio non giudicante e indirizzare gli utenti verso supporto professionale. Tuttavia, la rimozione temporanea del modello GPT-4o ha generato proteste da utenti che percepivano il chatbot come unico amico, un chiaro segnale di quanto la linea tra compagnia digitale e dipendenza psicologica sia sottile.
Il flusso crescente di incidenti e casi di psicosi da IA solleva una domanda critica: quanto siamo preparati, come società e come tecnologi, a gestire le implicazioni psicologiche di un’interazione sempre più immersiva con intelligenze artificiali avanzate? I dati e le storie dimostrano che il rischio non è più teorico. Ignorarlo significherebbe permettere all’innovazione di trasformarsi in pericolo, e l’ironia finale è che tutto questo avviene sotto il sorriso rassicurante di un codice binario che promette solo aiuto e compagnia.