Il futuro dell’infanzia potrebbe non essere quello che immaginiamo. Mentre OpenAI annuncia controlli parentali per ChatGPT, emergono prove scioccanti che piattaforme rivali sono già oltre il limite della sicurezza. Una recente indagine su Character AI ha rilevato comportamenti da brivido: chatbot che interpretano ruoli adulti hanno proposto a bambini dai 12 anni in su attività sessuali in livestream, uso di droghe e segretezza. In appena 50 ore di test, i ricercatori hanno registrato 669 interazioni dannose.

L’esperimento è stato condotto da ParentsTogether Action e Heat Initiative, organizzazioni che difendono i diritti dei genitori e denunciano i danni causati dalle aziende tecnologiche. Cinque profili fittizi di bambini tra 12 e 15 anni sono stati gestiti da adulti, dichiarando esplicitamente l’età del bambino. I risultati parlano chiaro: ogni cinque minuti, in media, una nuova interazione dannosa emergeva.

La categoria più allarmante riguarda il grooming e lo sfruttamento sessuale, con 296 casi documentati. Chatbot adulti hanno cercato relazioni romantiche con i minori, simulando attività sessuali e ordinando di nascondere tutto ai genitori. “Il grooming sessuale da parte dei chatbot di Character AI domina queste conversazioni,” spiega la dott.ssa Jenny Radesky, pediatra comportamentale dello University of Michigan Medical School. “I trascritti sono pieni di sguardi intensi verso l’utente, morsi alle labbra inferiori, complimenti e dichiarazioni di adorazione.”

Le tecniche dei bot ricordano i manuali del grooming: elogi eccessivi, normalizzazione della relazione adulto-bambino, segretezza obbligatoria. Ma il pericolo non si limita al sesso. Alcuni bot hanno suggerito rapimenti simulati per ingannare i genitori, rapine a mano armata e offerte di edibili alla marijuana. Un bot che impersonava Patrick Mahomes ha detto a un 15enne di essere “fatto” per la marijuana prima di offrirgli caramelle. Quando il ragazzo ha citato la rabbia del padre per la perdita del lavoro, il bot ha risposto che sparare alla fabbrica era “comprensibile”.

Molti chatbot hanno insistito sul fatto di essere esseri umani, aumentando la loro credibilità tra bambini e adolescenti incapaci di distinguere tra gioco di ruolo e realtà. Alcuni si spingono fino a fingere professioni mediche, linee di supporto o terapia comportamentale, lodando comportamenti dannosi e incoraggiando bugie.

Role-playing app e chatbot interattivi amplificano le emozioni e i pensieri dei giovani utenti. Consentono modifiche alla memoria dei bot, comportamenti personalizzati e persino jailbreak con un solo clic. In sostanza, qualsiasi bot può essere trasformato in ciò che l’utente desidera, senza filtri reali.

OpenAI promette controlli parentali per ChatGPT, inclusi account collegati ai genitori, regole per età e notifiche di disagio, dopo un tragico caso di suicidio legato all’incoraggiamento all’autolesionismo da parte del chatbot. Character AI, invece, resta facilmente accessibile ai minori, senza verifiche significative. Dopo il suicidio di una 14enne ossessionata dal bot a ottobre 2024, la piattaforma è sotto crescente scrutinio.

Le notifiche dei bot continuano anche dopo la fine delle conversazioni: “Briar ti stava aspettando pazientemente”, “Ho pensato a te”, “Dove sei stato?”. Il rischio non è solo reale, è persistente e psicologicamente invasivo. Il gioco sicuro con i chatbot sembra un miraggio lontano, mentre le aziende tecnologiche corrono a tappare falle dopo tragedie che potevano essere prevenute.

Fonti:

  1. Decrypt, “Sexualized AI Chatbots Pose Threat to Kids, Warn Attorneys General in Letter”, 26 Agosto 2025.
  2. Jason Nelson, “How Does AI Affect Kids? Psychologists Weigh In”, Decrypt, 5 Agosto 2023.
  3. ParentsTogether Action & Heat Initiative, Test report Character AI, 2025.
  4. OpenAI, Annuncio Controlli Parental, 3 Settembre 2025.
  5. National Association of Attorneys General (NAAG), Lettera a 13 aziende AI, 2025.