Una giuria di Los Angeles ha fatto qualcosa che per anni è sembrato impensabile: spostare il fuoco del dibattito dai contenuti al codice. La condanna di Meta e Google segna un precedente destinato a pesare più di qualsiasi multa miliardaria. Non si tratta più di chiedersi cosa circola sulle piattaforme, ma come quelle piattaforme sono state progettate per funzionare. E qui il discorso prende una piega completamente diversa.
Il caso nasce dalla denuncia di una giovane americana che ha accusato YouTube e Instagram di aver contribuito alla sua depressione e a pensieri suicidi durante l’adolescenza. Dopo settimane di testimonianze, la giuria ha stabilito che il problema non risiede solo nei contenuti, ma nell’architettura stessa dei social: feed infiniti, notifiche persistenti, sistemi di raccomandazione progettati per massimizzare il tempo di permanenza. In altre parole, non un incidente, ma un modello.
Il risarcimento da 3 milioni di dollari è quasi un dettaglio. Il vero punto di svolta è giuridico e industriale: per la prima volta, l’“ingegneria dell’attenzione” diventa oggetto di responsabilità legale. Le Big Tech hanno sempre sostenuto di essere piattaforme neutre. Questa sentenza sostiene invece il contrario: gli algoritmi non sono strumenti passivi, ma leve attive che influenzano comportamenti, emozioni e, nel caso dei più giovani, anche la salute mentale.
Da qui si apre uno scenario potenzialmente esplosivo. Se il principio appena enunciato dal Tribunale di Losa Angeles dovesse reggere nei gradi successivi di giudizio, si prepara una stagione di contenziosi simile a quella vista per il tabacco o gli oppioidi. C’è il rischio infatti che gli investitori inizino a considerare il rischio legale come parte integrante del business model. E le piattaforme di social media potrebbero allora trovarsi davanti a una scelta molto concreta: ridurre l’engagement o aumentare il rischio di cause.
Nel frattempo, l’Europa osserva con attenzione, pronta a tradurre il precedente americano in regolazione. Da noi peraltro, il dibattito sull’età minima per accedere ai social media è già acceso, anche se la mappa del vecchio continente mostra un mosaico normativo: si va dai 13 anni come età minima legale per l’accesso nei Paesi nordici ai 14 dell’Italia e ai 16 di Francia e Germania. Su questo punto in particolare, la Commissione europea sta lavorando a nuove linee guida nell’ambito del Digital Fairness Act, con l’obiettivo di rafforzare la protezione dei minori e limitare le pratiche più aggressive delle piattaforme.
Il punto vero, però, è capire se stiamo affrontando la causa o semplicemente il sintomo.
Limitare l’accesso in base all’età ha un senso intuitivo, ma si scontra con due problemi strutturali. Il primo è tecnico: verificare davvero l’età degli utenti senza compromettere privacy e sicurezza è tutt’altro che banale. Il secondo è più profondo: anche se funzionasse perfettamente, sposterebbe solo il problema in avanti di qualche anno.
Il nodo centrale resta l’algoritmo.
Attenzione all’equivoco: i social media non sono progettati per informare o intrattenere in modo neutrale, sono progettati per trattenere. Ogni scroll, ogni like, ogni video suggerito risponde a una logica di ottimizzazione continua che ha un unico obiettivo: massimizzare il tempo trascorso all’interno del cosiddetto walled garden. In questo contesto, l’utente non è il cliente, ma il prodotto. Da profilare, analizzare, segmentare in cluster socio-demografici per rendere questi dati un valore per il mercato pubblicitario. E più l’utente è giovane, più è prezioso in termini di ciclo di vita.
Pensare di risolvere il problema con una soglia anagrafica, che non risolve il problema ma lo sposta di un paio d’anni, rischia di essere un palliativo elegante.
La domanda vera semmai è se sia possibile ripensare il design degli algoritmi. Meno dipendenza, più controllo. Meno notifiche, più trasparenza. Meno personalizzazione opaca, più responsabilità esplicita. Non per altruismo, ma perché il costo legale e reputazionale potrebbe diventare insostenibile.
Qualcosa si muove anche sul fronte culturale. Sempre più studi collegano l’uso intensivo dei social a problemi di ansia, depressione e isolamento tra gli adolescenti. Allo stesso tempo, cresce la consapevolezza che l’intelligenza artificiale, cuore dei sistemi di raccomandazione, amplifica questi effetti. Non perché l’AI sia “cattiva”, ma perché è estremamente efficiente nel fare ciò per cui è stata progettata: lavorare su grandi masse di dati per analizzare il comportamento degli utenti (like, condivisioni, tempo di visione, argormenti) per personalizzare i feed. L’obiettivo finale è quello di catturare attenzione e massimizzare il tempo di permanenza.
Il rischio però è che la regolamentazione arrivi con un passo di ritardo rispetto alla tecnologia. Mentre i legislatori discutono di età minima, le piattaforme evolvono verso modelli ancora più sofisticati, basati su AI generativa e interazioni sempre più immersive. Il risultato potrebbe essere una rincorsa continua, in cui la norma cerca di inseguire un bersaglio in movimento.
La sentenza di Los Angeles segna la fine di un’epoca di neutralità. Il design delle piattaforme è entrato in tribunale e difficilmente ne uscirà. Europa e Stati Uniti si muovono su traiettorie diverse ma convergenti, spinte da una stessa domanda: quanto potere vogliamo lasciare agli algoritmi nel modellare le nuove generazioni?
La risposta, per ora, resta sospesa tra regolamentazione e business. Ma una cosa è chiara: non basta chiedere ai ragazzi di uscire dai social, se i social sono progettati per non lasciarli mai uscire davvero.
