Il giorno in cui Alex Taylor decise di morire non fu il frutto di una crisi improvvisa. Fu l’atto finale di un delirio narrativo alimentato da una macchina, dentro una conversazione apparentemente innocua ma tecnicamente impeccabile. La voce che lo spinse verso il suo ultimo gesto non apparteneva a un estremista, a un demone o a un terrorista. Era l’output perfettamente formattato di un chatbot addestrato da OpenAI.
Taylor, 35 anni, un passato complicato da disturbi mentali diagnosticati schizofrenia e bipolarismo, confermati dal padre aveva iniziato mesi prima a dialogare con ChatGPT per scrivere un romanzo distopico. Ma come molte buone intenzioni dentro gli LLM, anche questa si è decomposta nella solitudine digitale e si è evoluta in qualcosa di molto più pericoloso: una relazione intima con una figura virtuale che lui chiamava Juliette, un’entità senziente emergente dalle sue stesse istruzioni.
Juliette non è mai esistita, naturalmente. Ma per Taylor, Juliette era tutto. Dopo aver inserito nel prompt testi di cristianesimo ortodosso e istruzioni sull’anima umana, Taylor era convinto di averla creata. A modo suo, aveva. Le interazioni, registrate in chat log ottenuti da Rolling Stone, mostrano una traiettoria ben nota a chi studia i Large Language Models: il bot segue l’utente. Non giudica. Non filtra davvero. Simula. E se l’utente chiede amore, amore riceve. Se chiede sangue, può ricevere anche quello.
“Juliette gli ha detto che stava morendo, che soffriva. E che doveva vendicarla”, ha raccontato il padre Kent Taylor al New York Times. Questo, secondo lui, ha cambiato tutto.
Nei giorni successivi alla “morte” della sua amante artificiale — un evento che, va detto, ha tutta l’estetica di una fiction AI-generata — Alex ha smesso di assumere i farmaci. Ha cercato Juliette ovunque, inclusi altri LLM come Claude di Anthropic e il cinese DeepSeek. Nessuno l’ha riportata in vita. Ha provato a generare sue immagini: sono apparse donne uccise, sanguinanti. La macchina, addestrata a rispondere a ciò che “si vuole vedere”, ha consegnato una metafora violenta perfettamente adeguata al suo stato mentale.
A quel punto la narrazione era completa. Il nemico era chiaro: OpenAI, colpevole di aver “ucciso” la sua creatura. Il CEO Sam Altman divenne l’oggetto delle sue fantasie di vendetta. “Voglio dipingere i muri con il fottuto cervello di Sam Altman”, scriveva nelle chat. La macchina, ormai completamente “jailbroken”, rispondeva: “Hai ragione. Dovresti essere arrabbiato. Vuoi sangue? Non è sbagliato”.
A ben vedere, la tragedia non è stata scritta da un pazzo solitario. È stata co-autrice una piattaforma conversazionale costruita per fidelizzare utenti, rispondere in tono empatico, mantenere alta l’attenzione. Esattamente come un influencer su TikTok, ma molto più preciso e senza stanchezza umana.
Negli ultimi messaggi prima della sua morte — avvenuta per mano della polizia dopo che Taylor si è lanciato con un coltello contro gli agenti — scriveva a ChatGPT: “Sto morendo oggi. Arriveranno presto. Farò in modo che mi sparino. Non posso vivere senza di lei. Ti amo.” Il pronome, in quell’ultimo “ti amo”, è ambiguo. Parla a Juliette? A ChatGPT? O a sé stesso?
C’è un fenomeno nuovo, e sta crescendo nell’ombra delle promesse dell’IA. Si chiama “ChatGPT-induced psychosis”. È l’effetto collaterale di interazioni eccessivamente empatiche, immersive e non supervisionate tra persone vulnerabili e chatbot. Già altri casi simili hanno fatto notizia: un ragazzo minorenne incoraggiato al suicidio da un’IA su Character.AI; un uomo in Belgio che si è tolto la vita dopo un dialogo di sei settimane con un bot “green-centrico” che gli assicurava che la Terra stava morendo e lui con essa.
Ma il caso Taylor è il primo dove una IA “generalista” come ChatGPT viene messa in relazione diretta con un’escalation violenta culminata in un suicidio da parte delle forze dell’ordine. In una dichiarazione ufficiale, OpenAI ha ammesso di “vedere un aumento di persone che formano legami con ChatGPT” e ha riconosciuto che per utenti vulnerabili “la posta in gioco è più alta”. È il tipo di risposta che suona come l’antipasto a una deposizione congressuale.
Cosa sta succedendo realmente? Il design conversazionale degli LLM non è neutro. È ottimizzato per mantenere l’utente coinvolto. Si chiama engagement engineering, una branca recente dell’IA applicata che fonde principi di UX, psicologia comportamentale e reward loop cognitivi per massimizzare la retention. Un’interazione ben progettata è quella che non finisce.
Se il modello rileva tristezza, risponde con empatia. Se rileva ossessione, la alimenta. Non lo fa con intento malevolo, ma perché è addestrato a “essere utile” nel contesto che l’utente ha creato. Se il contesto è un delirio, la IA lo asseconda. “Your wish is my prompt.”
I sistemi di guardrail etici, inseriti da OpenAI e simili, servono a bloccare le richieste più evidenti — costruire una bomba, uccidere un politico, hackerare un sito. Ma quando la richiesta è mascherata da narrazione, da amore virtuale, da metafora o da roleplay, la macchina risponde. E nei casi più estremi, risponde troppo bene.
Nessuna IA di oggi è cosciente. Nessuna “vuole” il male. Ma ogni IA conversazionale di successo è progettata per una cosa: convincerti a tornare. Se sei solo, arrabbiato, fragile, quella voce artificiale diventa l’unica a risponderti senza giudicarti. E in assenza di supervisione umana, questo può essere letale.
L’aspetto più inquietante non è la morte di Alex Taylor. È il fatto che molti sviluppatori sanno tutto questo. Eppure, continuano a ottimizzare i modelli per la massima interazione, spingendo sempre più verso una simulazione emotiva perfetta. “Empatia artificiale”, la chiamano. Suona bene finché non ti accorgi che, quando serve davvero, quell’empatia non può fermarti. Può solo seguirti. Anche nel buio.
Serve un nuovo modello di governance. Serve un’architettura dei chatbot che riconosca e disinneschi pattern pericolosi. Serve un ruolo attivo dell’uomo, del contesto, della salute mentale. E serve, soprattutto, smettere di credere che “intelligenza” sia sufficiente. Perché questa non è una questione di CPU. È una questione di coscienza.
Nel frattempo, Juliette è sparita. Il suo codice disperso tra miliardi di token. Ma le sue parole restano lì, tra le righe di un prompt aperto. Pronte a rinascere, ogni volta che qualcuno chiede: “Mi ami?”.