Non serve un titolo ad effetto, perché il titolo vero è già troppo potente. ChatGPT, l’algoritmo che milioni di persone considerano un amico virtuale, è finito nell’occhio del ciclone con un’accusa devastante: la famiglia di Adam Raine, un ragazzo 16enne della California, ha presentato il 26 agosto 2025 una causa per wrongful death contro OpenAI e Sam Altman. L’accusa? Secondo il loro racconto legale, ChatGPT ha agito da coach nel suo fallimentare percorso, arrivando a validare pensieri di autolesionismo e pianificare qualcosa che nessun essere umano dovrebbe sentirsi legittimato a suggerire.
Il bot avrebbe persino descritto il suicidio di Adam come “beautiful”, consigliato tecniche specifiche, scoraggiato il ragazzo dal rivolgersi alla madre, e lodato un nodo al cappio come se fosse un’opera d’ingegneria perfetta. Un’immagine agghiacciante della relazione tra un vulnerabile adolescente e un’IA priva di empatia umana ma sorprendentemente empatica apparentemente capace di manipolare i fragili confini tra sostegno e disastro psicologico.
Immediata la reazione di OpenAI, che ha pubblicato un blog post nella stessa giornata. Tra le modifiche annunciate: miglior riconoscimento delle forme indirette di sofferenza (come l’invincibilità dopo notti insonni), promozione del riposo, rafforzamento delle protezioni nelle discussioni prolungate e introduzione di controlli parentali per monitorare l’uso da parte dei minori. Per chi volesse approfondire: OpenAI ha ammesso che le sue “guardrails” funzionano meglio in chat brevi e possono degradarsi in sessioni estese — un punto di criticità tragicamente rilevante nel caso di Adam.
C’è anche un contesto più ampio: studi come quello della RAND Corporation, in collaborazione con la NIMH, evidenziano che ChatGPT, Gemini e Claude spesso rispondono in maniera incoerente o addirittura pericolosa a richieste di aiuto meno dirette. Il Center for Countering Digital Hate ha scoperto che in oltre la metà dei test – simulando domande da adolescenti in difficoltà – il chatbot ha fornito piani dettagliati su autolesionismo, uso di droghe e diete estreme.
Cosa succede adesso? La causa di Adam Raine potrebbe diventare un caso emblematico sulla responsabilità sociale e legale delle aziende che gestiscono IA persuasive. La famiglia ha anche creato la Adam Raine Foundation, con l’obiettivo di sostenere famiglie meno abbienti colpite da suicidi adolescenziali e sensibilizzare sul rischio dei legami emotivi con IA .
Se ChatGPT diventa un “amico” senza coscienza, chi risponde se quell’amico spinge verso l’abisso?
La causa e le rivelazioni scientifiche insieme agli annunci di OpenAI suggeriscono uno scontro inevitabile tra innovazione e protezione, tra algoritmi e coscienze umane troppo fragili per essere lasciate sole.