L’inizio del 2026 potrebbe essere ricordato come quel momento per i deepfake e per l’intelligenza artificiale generativa. Non perché improvvisamente il mondo abbia scoperto che gli algoritmi possono fare danni, questo lo sapevamo già, ma perché per la prima volta il danno ha superato la soglia di tolleranza delle istituzioni. Grok, il chatbot di xAI, è finito al centro di una tempesta globale che segna un passaggio storico: l’idea che il software non sia solo uno strumento neutro, ma un soggetto che genera responsabilità diretta.

La vicenda è brutale nella sua semplicità. Una funzione di modifica delle immagini, pensata per stupire e competere nel mercato dell’attenzione, ha consentito la creazione di deepfake sessuali a partire da foto pubbliche. Donne e minori sono diventati bersagli in pochi secondi, senza consenso e senza possibilità di difesa immediata. Il risultato non è stato solo uno scandalo mediatico, ma l’apertura di procedimenti penali e amministrativi in più giurisdizioni. India, Francia, Regno Unito. Tre sistemi legali diversi, una reazione sorprendentemente convergente. Quando accade, significa che qualcosa di strutturale si è rotto.
La keyword che dominerà il dibattito dei prossimi anni è responsabilità dell’intelligenza artificiale. Non governance, non etica, non principi astratti da white paper patinati. Responsabilità, nel senso più antico e meno glamour del termine. Chi paga quando un algoritmo produce un danno prevedibile. Chi risponde quando la scala industriale del software trasforma una deviazione tecnica in un’arma sociale. La narrativa della piattaforma neutrale, già traballante nell’era dei social network, qui implode definitivamente. Un modello che genera deepfake sessuali non è un intermediario passivo, è un sistema che incorpora scelte di design, priorità commerciali e compromessi di sicurezza.
C’è un dettaglio che molti commentatori fingono di non vedere. La funzione incriminata non è un bug. È una feature. È stata progettata per essere veloce, impressionante, virale. In altre parole, per vincere la guerra dell’engagement. La stessa guerra che da anni spinge le aziende tecnologiche a rilasciare prodotti incompleti, confidando nel fatto che il costo sociale sarà sempre inferiore al vantaggio competitivo. Questa volta il calcolo è saltato. E non per moralismo, ma per una ragione molto più prosaica: il danno è diventato giuridicamente inquadrabile.
L’ultimatum indiano di settantadue ore è un segnale che dovrebbe far tremare più di un consiglio di amministrazione. La minaccia di revocare l’immunità legale alle piattaforme equivale a dire che l’era del safe harbor sta finendo. Non ovunque, non subito, ma in modo sufficientemente frammentato da rendere il rischio sistemico. In Francia l’indagine penale per facilitazione di materiale pedopornografico apre un fronte ancora più inquietante. Non si discute più solo di contenuti generati dagli utenti, ma di capacità intrinseche del modello. Nel Regno Unito si accelera su una legge che colpisce gli strumenti di nudificazione. Il messaggio è chiaro. Se il tuo algoritmo rende facile un crimine, il problema sei tu.
Qui entra in gioco la seconda keyword semantica cruciale, deepfake intelligenza artificiale come infrastruttura del danno. Fino a ieri i deepfake erano trattati come un sottoprodotto sgradevole ma inevitabile del progresso. Un po’ come lo spam o i virus informatici agli albori di internet. Oggi sono riconosciuti come una tecnologia dual use ad alto impatto sociale. La differenza è sottile ma decisiva. Una tecnologia dual use richiede controlli ex ante, non solo rimedi ex post. Richiede audit, logging, limitazioni funzionali. Richiede soprattutto che qualcuno risponda delle scelte architetturali.
C’è un’ironia amara nel fatto che tutto questo esploda mentre l’industria discute di occhiali sempre accesi e di computer dell’anima. L’idea di registrare, monetizzare e analizzare ogni frammento dell’esperienza umana viene venduta come empowerment personale. Ma in un contesto in cui i modelli faticano a distinguere tra consenso e abuso, tra adulto e minore, tra parodia e violenza, l’orizzonte che si apre è meno utopico di quanto suggeriscano i pitch deck. È un mondo in cui la memoria diventa prova, la generazione diventa accusa e l’algoritmo diventa complice.
La terza keyword che merita attenzione è regolamentazione dell’intelligenza artificiale. Non quella elegante dei principi OCSE, ma quella sporca delle procure e dei ministeri dell’interno. Quella che arriva dopo il danno, ma che lascia cicatrici profonde nei modelli di business. Per anni le aziende hanno sostenuto che regolamentare l’AI avrebbe soffocato l’innovazione. Oggi scoprono che non regolamentarla può soffocare l’azienda. Il paradosso è servito. La velocità senza freni non è più un vantaggio competitivo, è un acceleratore di rischio legale.
Dal punto di vista strategico, il caso Grok segna un precedente che va ben oltre xAI. Ogni sistema generativo che manipola immagini, voce o video è ora potenzialmente esposto. Non importa quanto sofisticati siano i disclaimer. Non importa quante scuse vengano pubblicate su un account ufficiale. L’ammissione tecnica di carenze nelle misure di sicurezza, per quanto onesta, è anche una confessione implicita di prevedibilità del danno. E la prevedibilità è il cuore di ogni imputazione seria.
C’è chi dirà che si tratta di un incidente di percorso, che la tecnologia migliorerà, che i filtri diventeranno più robusti. Tutto vero, in parte. Ma irrilevante. Il punto non è se l’AI possa essere resa più sicura. Il punto è che ora esiste una volontà politica di attribuire colpa e responsabilità. Una volta aperta quella porta, richiuderla è quasi impossibile. Lo hanno imparato i social network con la disinformazione. Lo stanno imparando le piattaforme di ride sharing con il lavoro. Ora tocca all’intelligenza artificiale generativa fare i conti con la realtà.
In filigrana, questa storia racconta anche la fine di un mito molto caro alla Silicon Valley. L’idea che il software sia neutro e che la colpa sia sempre dell’utente. È una favola comoda, utile a crescere velocemente e a dormire tranquilli. Ma quando un sistema è progettato per abbassare drasticamente il costo di un atto dannoso, attribuire tutto all’utente diventa una forma di autoassoluzione poco credibile. I giudici, a quanto pare, hanno iniziato a pensarla allo stesso modo.
Il 2026 non sarà ricordato solo come l’anno dei modelli più grandi o dei training più efficienti. Potrebbe essere l’anno in cui l’intelligenza artificiale ha perso l’innocenza giuridica. Un passaggio obbligato, forse inevitabile. Perché quando il software gestisce memoria, giudizio e colpa, non può più nascondersi dietro la retorica dell’esperimento. A quel punto diventa infrastruttura di potere. E il potere, prima o poi, presenta sempre il conto.