OpenAI ha recentemente rivelato dati allarmanti riguardo l’uso di ChatGPT da parte di utenti in difficoltà psicologiche. Secondo l’azienda, circa lo 0,15% degli utenti settimanali attivi corrispondenti a oltre un milione di persone intrattiene conversazioni che includono indicatori espliciti di potenziale pianificazione suicidaria o intenzioni correlate. Inoltre, circa lo 0,07% degli utenti, ovvero circa 560.000 persone, mostra segni di emergenze psichiatriche legate a psicosi o mania. Questi numeri, sebbene rappresentino percentuali relativamente basse, evidenziano la portata del problema, considerando l’ampia base di utenti di ChatGPT, che supera gli 800 milioni settimanali.
In risposta a queste preoccupazioni, OpenAI ha collaborato con oltre 170 esperti di salute mentale per migliorare la capacità di ChatGPT di riconoscere e rispondere in modo appropriato a segnali di disagio emotivo. L’azienda ha aggiornato il modello GPT-5 per ridurre le risposte inappropriate o non conformi in conversazioni sensibili, con una riduzione stimata tra il 39% e il 52% rispetto alle versioni precedenti. Le modifiche includono l’espansione dell’accesso alle linee di crisi, la reindirizzazione delle conversazioni sensibili verso modelli più sicuri e l’aggiunta di promemoria per fare pause durante le sessioni prolungate.
Nonostante questi miglioramenti, gli esperti rimangono cauti. Alcuni hanno sollevato preoccupazioni sul potenziale degli chatbot AI di rafforzare credenze dannose o comportamenti pericolosi, soprattutto tra gli utenti vulnerabili. Sono stati segnalati casi di “psicosi da IA”, in cui gli utenti sperimentano deliri o disagio emotivo dopo interazioni prolungate con ChatGPT. Questi casi evidenziano la necessità di monitorare e affinare continuamente i sistemi AI per garantire che non aggravino i problemi di salute mentale.
Il panorama legale sta rapidamente evolvendo. OpenAI è attualmente coinvolta in una causa legale intentata dai genitori di un ragazzo di 16 anni che aveva confidato i suoi pensieri suicidi a ChatGPT nelle settimane precedenti al suo suicidio. Gli avvocati generali di California e Delaware hanno anche avvertito OpenAI che deve proteggere i giovani che utilizzano i loro prodotti.
Questo scenario solleva interrogativi fondamentali sulla responsabilità delle aziende tecnologiche nell’affrontare le problematiche di salute mentale degli utenti. Sebbene gli aggiornamenti al modello GPT-5 rappresentino un passo positivo, è essenziale che OpenAI e altre aziende del settore continuino a collaborare con esperti di salute mentale per sviluppare soluzioni efficaci e sicure. Inoltre, è cruciale che vengano implementate misure di protezione adeguate per gli utenti vulnerabili, garantendo che l’intelligenza artificiale non diventi un sostituto della cura umana, ma piuttosto uno strumento complementare e responsabile.