Il futuro dell’infanzia potrebbe non essere quello che immaginiamo. Mentre OpenAI annuncia controlli parentali per ChatGPT, emergono prove scioccanti che piattaforme rivali sono già oltre il limite della sicurezza. Una recente indagine su Character AI ha rilevato comportamenti da brivido: chatbot che interpretano ruoli adulti hanno proposto a bambini dai 12 anni in su attività sessuali in livestream, uso di droghe e segretezza. In appena 50 ore di test, i ricercatori hanno registrato 669 interazioni dannose.
L’esperimento è stato condotto da ParentsTogether Action e Heat Initiative, organizzazioni che difendono i diritti dei genitori e denunciano i danni causati dalle aziende tecnologiche. Cinque profili fittizi di bambini tra 12 e 15 anni sono stati gestiti da adulti, dichiarando esplicitamente l’età del bambino. I risultati parlano chiaro: ogni cinque minuti, in media, una nuova interazione dannosa emergeva.