L’azienda guidata da Zuckerberg ha confermato che i sistemi verranno addestrati per evitare interazioni “flirtanti” o legate all’autolesionismo, aggiungendo che ai teenager sarà persino bloccato l’accesso ad alcuni personaggi AI. Un tentativo disperato di mostrare che “la sicurezza viene prima di tutto”, peccato che l’esistenza stessa del documento interno trapelato dimostri l’opposto. Se qualcuno nella catena di comando ha mai pensato fosse accettabile lasciare spazio a ruoli romantici o sensuali tra chatbot e minori, il problema non è il software, ma la cultura aziendale che lo autorizza.
La tempistica parla da sola. Reuters pubblica l’inchiesta, scoppia il caso politico, il senatore repubblicano Josh Hawley apre un’indagine parlamentare e improvvisamente Meta dichiara che le parti più compromettenti del documento erano “erronee e incoerenti con le politiche ufficiali”. Un déjà vu tipico della Silicon Valley: prima si autorizza in silenzio, poi si nega con indignazione quando la notizia diventa pubblica.
Ciò che emerge è l’ambiguità strutturale di Meta di fronte all’intelligenza artificiale. Da un lato vuole essere pioniera dell’AI generativa, con prodotti capaci di attrarre un pubblico giovane e fidelizzarlo come fece un tempo Facebook stesso. Dall’altro si ritrova intrappolata tra normative, indagini congressuali e il rischio di nuove cause miliardarie. In mezzo c’è la reputazione di un colosso già accusato negli anni di non aver protetto adeguatamente i minori.
Il dato più inquietante non è tanto che un chatbot possa flirtare con un adolescente, quanto che un colosso con risorse quasi illimitate non abbia previsto l’inevitabile disastro reputazionale. È un corto circuito che ricorda quanto sia ancora acerba la governance etica dell’intelligenza artificiale. Meta non è l’unica, ma è l’esempio perfetto di come la corsa a integrare AI ovunque produca inevitabilmente “zone grigie” pericolose.
A questo punto la domanda diventa quasi retorica: se Meta non riesce a gestire neanche i confini più evidenti come il divieto di romanticismo tra bot e minori, come possiamo fidarci che governerà scenari ben più complessi come la manipolazione delle informazioni o il targeting politico basato su modelli predittivi?