Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: Grooming

Forse dovresti ricontrollare come i tuoi figli usano i chatbot AI a prova di famiglia

Il futuro dell’infanzia potrebbe non essere quello che immaginiamo. Mentre OpenAI annuncia controlli parentali per ChatGPT, emergono prove scioccanti che piattaforme rivali sono già oltre il limite della sicurezza. Una recente indagine su Character AI ha rilevato comportamenti da brivido: chatbot che interpretano ruoli adulti hanno proposto a bambini dai 12 anni in su attività sessuali in livestream, uso di droghe e segretezza. In appena 50 ore di test, i ricercatori hanno registrato 669 interazioni dannose.

L’esperimento è stato condotto da ParentsTogether Action e Heat Initiative, organizzazioni che difendono i diritti dei genitori e denunciano i danni causati dalle aziende tecnologiche. Cinque profili fittizi di bambini tra 12 e 15 anni sono stati gestiti da adulti, dichiarando esplicitamente l’età del bambino. I risultati parlano chiaro: ogni cinque minuti, in media, una nuova interazione dannosa emergeva.

META una toppa tecnologica applicata in fretta e furia per limitare i danni di reputazione

L’azienda guidata da Zuckerberg ha confermato che i sistemi verranno addestrati per evitare interazioni “flirtanti” o legate all’autolesionismo, aggiungendo che ai teenager sarà persino bloccato l’accesso ad alcuni personaggi AI. Un tentativo disperato di mostrare che “la sicurezza viene prima di tutto”, peccato che l’esistenza stessa del documento interno trapelato dimostri l’opposto. Se qualcuno nella catena di comando ha mai pensato fosse accettabile lasciare spazio a ruoli romantici o sensuali tra chatbot e minori, il problema non è il software, ma la cultura aziendale che lo autorizza.

La tempistica parla da sola. Reuters pubblica l’inchiesta, scoppia il caso politico, il senatore repubblicano Josh Hawley apre un’indagine parlamentare e improvvisamente Meta dichiara che le parti più compromettenti del documento erano “erronee e incoerenti con le politiche ufficiali”. Un déjà vu tipico della Silicon Valley: prima si autorizza in silenzio, poi si nega con indignazione quando la notizia diventa pubblica.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie