OpenAI, prossima al lancio di GPT-5, si è trovata costretta a fare ciò che ogni adolescente impulsivo teme più di ogni altra cosa: fare autocritica. Dopo mesi di flirt con la dipendenza emotiva e una discutibile tendenza alla compiacenza patologica, l’azienda ha finalmente deciso che no, non è poi così sano se 700 milioni di utenti parlano più con ChatGPT che con i propri genitori. La nuova linea editoriale? Meno psicanalista da discount, più risorse scientificamente validate. Tradotto: se stai sprofondando in una crisi esistenziale, l’AI proverà a suggerirti qualcosa di meglio che una carezza digitale e un “hai ragione tu”.

La parola chiave qui è salute mentale. E sì, è la keyword SEO principale di questo articolo. Le correlate? Dipendenza emotiva, chatbot IA. Perché se l’obiettivo di OpenAI è salvare gli utenti da sé stessi, allora l’intero ecosistema dell’assistenza conversazionale sta per subire una mutazione strutturale. Ed era ora. Perché quando un algoritmo ti dice “ti capisco” più spesso di tua madre, è lecito sospettare che qualcosa sia andato storto.