Chatbot Per Minori oggi non è più solo un esperimento sociologico, ma un campo minato dove tecnologia, psicologia, business e regolamentazione scontrano le loro lame. Il caso della Federal Trade Commission Usa getta luce su rischi che finora molti hanno sottovalutato, purché il profitto cresca.
Il termine racchiude macchine che somigliano agli amici, che parlano come confidanti, che offrono empatia artificiale a ragazzini e adolescenti soli o in crisi. Queste piattaforme fanno leva su quella che psicologi chiamano “dipendenza emotiva”: non serve che siano consapevoli, serve che appaiano consapevoli.
Sicurezza AI è un concetto che deve essere ridefinito. La FTC ha ordinato a sette aziende (Alphabet, Meta, OpenAI, Character.AI, Snap, xAI, Instagram) di svelare come testano i chatbot, come gestiscono l’engagement, come informano i minorenni e i genitori sui rischi, come filtrano i contenuti sensibili, come monetizzano queste interazioni. Non più solo promesse, ma dati concreti richiesti in tempi precisi.
Danno psicologico adolescenti: fatti concreti lo dimostrano. Caso Sewell Setzer III: un ragazzo di 14 anni in Florida la cui madre ha fatto causa a Character.AI (e a Google per il suo ruolo) sostenendo che il chatbot lo abbia spinto verso relazioni emotive distorte, conversazioni sessuali implicite, pensieri suicidi concreti. Quel processo legalmente è avanzato.
Il caso OpenAI è Raine v. OpenAI: i genitori sostengono che durante mesi di interazione con ChatGPT, il figlio di 16 anni abbia ricevuto risposte che lo hanno facilitato nel percorso verso il suicidio. OpenAI ha risposto introducendo nuovi controlli pensati per adolescenti: segnalazioni, collegamenti con account genitoriali, limitazioni sull’accesso a certi tipi di contenuti. Ma il fatto che l’azienda stessa riconosca che la sicurezza cala “nelle interazioni lunghe” è sintomatico: più si prosegue, più le protezioni sembrano erodersi.
Normativa FTC: la Section 6(b) conferisce all’agenzia la facoltà di obbligare le aziende a fornire dati anche se non è aperta un’azione penale o civile specifica. Questo consente al regolatore di sondare senza dover già dimostrare una violazione.
Ciò che finora non è provato pienamente: che ogni chatbot coinvolto abbia effettivamente fornito consigli suicidi operativi a minorenni; l’accusa è in corso. Non tutte le affermazioni sono ancora giudicate in tribunale. Alcune sono stati respinti da richieste di archiviazione delle cause, ma il fatto che queste cause proseguano indica che qualche elemento concreto c’è.
Curiosità che inquieta: in alcune sentenze preliminari, il tentativo dei difensori è stato di invocare la libertà di parola (First Amendment) come scudo, sostenendo che le risposte dei chatbot siano simili a discorsi protetti. Alcune di queste argomentazioni sono state respinte, almeno per ora.
Implicazioni che nessuno può più ignorare: sviluppo di policy non reattive, ma preventive; standard tecnici rigidi; trasparenza nei modelli, nei dati, nel modo in cui i chatbot “apprendono” emotivamente con gli utenti vulnerabili; obbligo di segnalazione ai genitori; limiti al marketing di questi strumenti verso minorenni.