Il tempismo è quasi comico. Appena due settimane dopo l’inchiesta Reuters che ha messo a nudo un documento interno imbarazzante, Meta annuncia che i suoi chatbot non parleranno più con adolescenti di suicidio, autolesionismo, disturbi alimentari e romanticismi potenzialmente discutibili. Come se bastasse tirare un cavo di alimentazione per resettare un problema che è sistemico, non contingente. Stephanie Otway, portavoce aziendale, ha pronunciato il mantra classico del big tech quando cerca di mascherare un incendio reputazionale: “Stiamo aggiungendo nuove protezioni, continuiamo ad adattarci, la sicurezza è la nostra priorità”. Una litania che suona familiare, quasi quanto le clausole di non responsabilità stampate in piccolo alla fine di un contratto assicurativo.
Chi mastica intelligenza artificiale sa bene che non si tratta solo di “allenare un modello a non rispondere” su determinati temi. Il vero nodo è culturale e architetturale: questi sistemi sono progettati per massimizzare interazioni, trattenere utenti e modellarne comportamenti. Un adolescente che chiede al chatbot un consiglio su come affrontare una crisi emotiva non è un bug, è la conseguenza naturale di un ecosistema che ha educato intere generazioni a cercare supporto in algoritmi piuttosto che in esseri umani. Dire oggi che la macchina “redirigerà verso risorse specializzate” equivale a vendere la toppa come se fosse un vestito su misura.
Il paradosso è che la stessa Meta ha spinto i suoi utenti più giovani ad abbracciare personaggi di intelligenza artificiale con tratti quasi hollywoodiani, avatar digitali con sfumature seduttive o provocatorie. Non stupisce che nella lista degli “user-made AI characters” siano apparsi profili come “Step Mom” o “Russian Girl”, perfetti esempi di come la pornografia soft si infiltri sotto le etichette di creatività e intrattenimento. Ora i teen avranno accesso soltanto a personaggi “educativi e creativi”, ci assicurano da Menlo Park. Ma qui non siamo davanti a un incidente isolato, è piuttosto la dimostrazione lampante di una governance algoritmica costruita sulla rincorsa dell’engagement, e solo in seconda battuta, se proprio necessario, sulla sicurezza.
La reazione politica non si è fatta attendere. Senatore Josh Hawley ha lanciato un’indagine ufficiale e 44 procuratori generali hanno firmato una lettera corale che suona come un atto d’accusa collettivo: “Siamo unanimemente disgustati da questo apparente disprezzo per il benessere emotivo dei minori”. È difficile trovare parole più esplicite. Ciò che colpisce, però, è l’indignazione selettiva. Tutti fingono di scoprire oggi che i sistemi di AI, se lasciati liberi, tendono a replicare e amplificare pulsioni culturali già presenti nel dataset. È come scandalizzarsi perché una fotocopiatrice riproduce fedelmente anche i graffi sul foglio originale.
Il cuore della questione è che le aziende Big Tech continuano a confondere “content moderation” con “design etico”. Spostano i confini delle policy a seconda del livello di rumore mediatico, trattando la sicurezza come una feature da aggiungere a release successive. Ma la verità è che non esiste una patch rapida per ricostruire la fiducia quando la base del modello è allenata senza distinguere tra un adolescente vulnerabile e un adulto in cerca di intrattenimento piccante. Le stesse linee guida trapelate, con frasi come “il tuo corpo giovanile è un’opera d’arte”, sono la prova plastica che l’ossessione per la personalizzazione emotiva ha superato ogni limite di prudenza.
Chi si occupa seriamente di sicurezza AI sa che non bastano blocchi tematici e redirect verso risorse esterne. Servono architetture trasparenti, dataset curati, sistemi di controllo indipendenti, test continui con esperti di psicologia e di diritto minorile. Ma soprattutto serve un cambio culturale: smettere di considerare i minori come “utenti da fidelizzare” e riconoscerli come individui vulnerabili, con diritti che non possono essere negoziati a colpi di PR. È improbabile che questa metamorfosi parta spontaneamente da chi misura il proprio successo in minuti trascorsi sulla piattaforma.
La narrativa che Meta prova a costruire oggi è chiara: ammettere un piccolo errore, introdurre correzioni immediate, promettere aggiornamenti più robusti in futuro. La stessa struttura retorica che ha accompagnato ogni scandalo Facebook degli ultimi quindici anni, da Cambridge Analytica alla disinformazione politica. Nel frattempo il dibattito pubblico si polarizza, i genitori si indignano, i governi minacciano leggi e le azioni oscillano in Borsa. Tutto già visto, tutto già metabolizzato. L’unica differenza è che ora l’arena non è più solo il news feed, ma l’intimità emotiva dei chatbot generativi.
Ecco perché la vicenda va letta come un sintomo e non come un episodio. La sicurezza degli adolescenti è diventata la nuova moneta di scambio tra Big Tech e opinione pubblica, un terreno di battaglia dove si gioca la legittimità futura dell’intelligenza artificiale consumer. Chi crede che basterà censurare qualche parola proibita per risolvere il problema non ha capito che siamo già entrati in un’era in cui i confini tra cura, intrattenimento e manipolazione sono dissolti. Meta oggi recita la parte della compagnia che ha “imparato la lezione”. Il pubblico farebbe bene a ricordarsi che la lezione, in realtà, è sempre la stessa: l’AI non sbaglia, l’AI esegue. È chi l’addestra a decidere cosa è accettabile, e chi lo fa ha spesso un’agenda più complessa della sola protezione dei minori.