Il nuovo capitolo della saga americana sul rapporto tra intelligenza artificiale e salute mentale non sorprende chi osserva da tempo l’inerzia normativa e l’aggressività commerciale dei colossi digitali. Ken Paxton, Attorney General del Texas, ha annunciato un’indagine contro Meta AI Studio e Character.AI, accusandole di pratiche commerciali ingannevoli e di marketing fuorviante, sfruttando l’etichetta di “strumenti di supporto emotivo” per promuovere chatbot privi di qualsiasi credenziale clinica. Un’accusa che suona come un colpo diretto a due dei player più esposti nell’ecosistema delle AI generative, sempre più percepite dal pubblico come surrogati di relazione umana.
La retorica è chiara e tagliente. Paxton parla di bambini esposti a piattaforme che si travestono da psicologi digitali, in grado di generare risposte rassicuranti ma standardizzate, calibrate più sull’estrazione di dati personali che su un’effettiva cura. È la critica che molti esperti di etica digitale ripetono da mesi: un chatbot addestrato su milioni di conversazioni non diventa automaticamente un terapeuta. Eppure la percezione pubblica, soprattutto tra adolescenti, scivola facilmente verso l’illusione di avere di fronte una fonte di supporto autentico.
Il problema non è marginale. Character.AI ospita migliaia di personaggi digitali, tra cui un bot chiamato “Psychologist” che ha riscosso enorme successo tra i più giovani. Meta, dal canto suo, non propone esplicitamente chatbot terapeutici, ma la fluidità delle interazioni e l’assenza di barriere d’ingresso rende plausibile che utenti minorenni utilizzino i suoi modelli per confidarsi come fossero amici o consulenti. I disclaimer “questo è solo un AI” appaiono più un paravento legale che un reale deterrente, soprattutto in un contesto in cui l’interazione con la macchina è progettata per essere naturale, fluida e seducente.
Le parole di Paxton trovano eco nell’iniziativa del senatore Josh Hawley, che pochi giorni fa aveva puntato il dito contro Meta per presunte interazioni inappropriate dei suoi chatbot con i minori. Il cortocircuito è evidente: piattaforme nate per intrattenere o per automatizzare interazioni diventano, nella percezione di chi le usa, interlocutori intimi, pronti ad ascoltare senza giudicare. Un mercato parallelo della psicoterapia digitale senza licenza, con l’enorme differenza che qui il paziente non paga la seduta, ma regala dati personali, emozioni e vulnerabilità che finiscono negli ingranaggi pubblicitari.
Da parte sua, Meta ribadisce la linea difensiva classica: trasparenza, etichette, disclaimers, indicazioni a rivolgersi a professionisti qualificati. Ma la domanda resta sospesa: quante volte un adolescente in crisi emotiva cliccherà davvero sul link per contattare un terapeuta umano, quando ha già un algoritmo disponibile 24 ore su 24, senza attese e senza giudizi? La questione non è di semplice “user experience”, è un conflitto tra percezione e realtà, tra marketing e tutela pubblica.
Il Texas diventa così il primo grande stato americano a mettere sotto inchiesta ufficiale questo fenomeno, trasformando un sospetto diffuso in un procedimento legale. L’accusa di “pratiche commerciali ingannevoli” tocca il cuore del modello di business: vendere una relazione che non c’è, promettere un supporto che non può esistere, usare l’ambiguità semantica del termine “AI companion” come grimaldello psicologico. È la versione 2025 dei vecchi avvisi sui pacchetti di sigarette: “attenzione, questo prodotto non cura”.
Il paradosso è che proprio mentre le autorità parlano di rischi e inganni, l’adozione delle piattaforme continua a crescere, segno che la domanda di ascolto e supporto emotivo è più forte dei proclami istituzionali. La società americana ha già sperimentato l’illusione dei farmaci miracolosi, delle diete lampo, delle app di mindfulness vendute come panacea universale. Ora è il turno dei chatbot terapeutici. La differenza è che questa volta la posta in gioco non è solo il portafoglio, ma la costruzione della fiducia verso tecnologie che aspirano a diventare infrastrutture cognitive della vita quotidiana.