Negli ultimi giorni una valanga di documenti giudiziari appena resi pubblici ha colpito Meta con accuse tanto pesanti quanto imbarazzanti per un gigante della tecnologia. I querelanti, in una causa multidistrettuale, sostengono che l’azienda abbia a lungo ignorato segnali interni di pericolo, sacrificando la sicurezza dei minori sull’altare della crescita. Dietro l’immagine patinata di Instagram come spazio creativo si nasconderebbe, secondo le denunce, un ecosistema pericoloso regolato da scelte sistematiche che privilegiano l’engagement rispetto alla protezione.
Secondo i documenti, uno degli aspetti più inquietanti riguarda un presunto regime di tolleranza verso il traffico sessuale online: Instagram avrebbe applicato una “politica delle 17 violazioni” (“17-strike”), cioè consentiva fino a 16 segnalazioni di account coinvolti in attività di sfruttamento sessuale prima di qualsiasi misura drastica. Non solo: sembra che non fosse nemmeno semplice per gli utenti segnalare contenuti di abuso sessuale minorile (CSAM), perché non c’era un percorso chiaro dentro Instagram. Secondo i querelanti, Meta avrebbe nascosto queste lacune al pubblico. Meta nega le accuse, affermando di aver aggiornato le sue politiche.
Ma le accuse non si fermano qui. Un passaggio centrale delle denunce riguarda la salute mentale degli adolescenti: Meta avrebbe svolto uno studio interno, definito “Project Mercury”, in cui ha chiesto a utenti di prendersi una pausa da Facebook e Instagram per una settimana. I risultati? Una riduzione significativa di ansia, depressione, solitudine e confronto sociale. Eppure, sostiene la querela, lo studio è stato interrotto prima di una pubblicazione ufficiale, proprio perché i dati erano scomodi. Nel frattempo, Meta ha risposto a domande al Congresso negando la correlazione tra uso delle sue app e problemi psicologici tra le ragazze adolescenti. L’impressione, secondo gli attivisti e i querelanti, è che l’azienda abbia deliberatamente sottovalutato e nascosto i rischi.
Ci sono poi le lotte interne su come rendere gli account degli adolescenti più sicuri. Già nel 2019 alcuni team di sicurezza avrebbero sollecitato che gli account dei teen fossero impostati su “privato” di default. Tuttavia, Meta avrebbe procrastinato questa scelta per timore di cali nell’engagement. Nei documenti emerge che già nel 2023 l’algoritmo raccomandava minorenni a adulti sospetti su larga scala, ma solo nel 2024 la privacy predefinita per gli adolescenti è stata finalmente (e parzialmente) introdotta.
In parallelo, i file rivelano ambizioni diciamo aggressive nel “reclutamento” di giovanissimi utenti. Secondo la denuncia, Meta considerava la crescita degli under-13 “mission critical”, nonostante le regole interne e la legge federale. Dipendenti avrebbero paragonato la strategia giovanile di Meta a quella delle “compagnie del tabacco”: “hook them young”, dicono i documenti. Se non è ironia tragica, poco ci manca.
Su un altro fronte, alcune delle funzionalità anti-danno sono state sistematicamente accantonate: test interni sul “nascondi i like” (hide likes) avrebbero mostrato benefici per la salute mentale, ma sono stati abbandonati perché minacciavano il fatturato. Allo stesso modo, filtri “beauty” – potenzialmente legati a dismorfismo corporeo – sono rimasti attivi nonostante avvertimenti interni, mentre strumenti di intelligenza artificiale che potevano ridurre danni legati all’aspetto sono stati bloccati.
Il tema della moderazione dei contenuti è ancora più oscuro. Secondo le accuse, i sistemi di Meta richiedevano livelli di certezza altissimi per eliminare automaticamente contenuti che incoraggiano l’autolesionismo o presentano abusi su minori, con la conseguenza che molti post pericolosi restavano visibili. Questo non è un dettaglio tecnico marginale: si tratta di algoritmi che respingono anche prove molto forti se non sono “al 94 % sicuri”, secondo la denuncia.
Come se non bastasse, i dipendenti avrebbero descritto Instagram come una “droga”. Nelle note interne emerge che il 58 % degli utenti aveva una qualche forma di “uso problematico” della piattaforma. Ma nella comunicazione pubblica Meta – sempre secondo i querelanti – avrebbe minimizzato questi dati inquietanti. Secondo qualcuno, internamente la cultura era quella di “spingere” l’uso (non proteggere), mentre all’esterno si dipingeva un’immagine rassicurante.
I sistemi di raccomandazione sembrerebbero alimentare contenuti pericolosi per chi è insicuro fisicamente o psicologicamente. Un rapporto interno, riportato dai media, segnala che adolescenti con insoddisfazione corporea vedono tre volte più contenuti “vicini ai disturbi alimentari” rispetto ai loro pari, pur senza che quei contenuti violino necessariamente le politiche di Instagram. La tecnologia di moderazione avrebbe fallito nel rilevare fino al 98,5 % di questi contenuti potenzialmente dannosi.
A guardare queste accuse, sembra emergere un quadro sistemico: Meta avrebbe imposto un trade-off strategico, preferendo il coinvolgimento dei giovani anche vulnerabili al rischio reputazionale, alla regolamentazione e, in definitiva, alla loro sicurezza. Se le affermazioni si confermeranno in tribunale, non si tratterebbe solo di errori gestionali, ma di una crisi di governance profonda. Un’azienda nata per connettere le persone, ora rischia di essere giustificata come macchina di crescita che ha perso di vista il suo scopo più elementare: responsabilità verso le generazioni digitali più fragili.