La scena è quasi comica, se non fosse profondamente inquietante. Un primo ministro, Benjamin Netanyahu, che solleva una tazza di caffè davanti alla telecamera e chiede implicitamente al mondo di contare le sue dita. Non per un vezzo narcisistico, ma per dimostrare di essere reale. Non morto. Non sostituito. Non sintetico. Se qualcuno avesse proposto una trama simile a Philip K. Dick negli anni Settanta, probabilmente sarebbe stata rifiutata perché troppo surreale. Oggi è semplicemente un martedì su internet.

La questione non riguarda Netanyahu, o almeno non solo lui. Riguarda un punto di frattura epistemologica che stiamo attraversando con una velocità che il sistema politico, mediatico e culturale non è minimamente attrezzato a gestire. Per decenni abbiamo costruito la nostra fiducia nella realtà su un principio implicito ma robusto: vedere è credere. Un video era prova, una fotografia era testimonianza. Oggi quel principio è stato elegantemente smontato da modelli generativi addestrati su miliardi di immagini e ore di video. Il risultato è un paradosso perfetto: più contenuti visivi produciamo, meno siamo in grado di crederci.

Le teorie complottiste che circondano Netanyahu, con dita extra e tazze di caffè che sfidano la fisica, sono meno interessanti per il loro contenuto e molto più per il loro contesto. Non importa che siano false, o facilmente spiegabili con artefatti di compressione video o giochi di luce. Importa che siano plausibili. Questo è il vero salto di fase. La plausibilità ha sostituito la verità come valuta dominante nell’economia dell’informazione.

Le piattaforme social hanno costruito imperi sulla viralità, non sulla verificabilità. Meta, YouTube e compagnia hanno investito miliardi in algoritmi che ottimizzano l’engagement, non la realtà. In un contesto del genere, un video sospetto non viene penalizzato per la sua ambiguità, ma premiato per la sua capacità di generare discussione. La verità, nel frattempo, resta seduta in un angolo come un vecchio analista finanziario che continua a parlare di fondamentali mentre il mercato impazzisce.

La tecnologia non è neutrale, anche se amiamo raccontarcela così. I modelli generativi moderni, da quelli di OpenAI a quelli di Google DeepMind, stanno progressivamente eliminando i cosiddetti “tells”, quei piccoli errori che un tempo tradivano un contenuto sintetico. Mani deformi, occhi asimmetrici, movimenti innaturali. Tutti difetti che stanno rapidamente scomparendo. Ironia della sorte, proprio mentre diventiamo più bravi a generare realtà sintetiche, diventiamo più ossessivi nel cercare imperfezioni. Il pubblico si trasforma in una massa di detective paranoici, pronti a interpretare qualsiasi glitch come prova di una cospirazione globale.

Il problema è che questa dinamica non si ferma al folklore digitale. Si infiltra direttamente nel tessuto democratico. Una democrazia funziona solo se esiste un minimo consenso su cosa sia reale. Non serve un accordo sulle opinioni, ma almeno sui fatti. Quando anche i fatti diventano negoziabili, il sistema inizia a scricchiolare. Non è un caso che figure politiche come Donald Trump abbiano già iniziato a sfruttare questa ambiguità, accusando avversari e stati esteri di usare l’intelligenza artificiale come arma di disinformazione, mentre allo stesso tempo giocano con gli stessi strumenti per manipolare la narrativa.

Il cortocircuito è evidente. L’AI diventa contemporaneamente il colpevole perfetto e l’alibi perfetto. Qualsiasi contenuto scomodo può essere liquidato come deepfake. Qualsiasi contenuto falso può essere difeso come autentico. Entrambe le posizioni sono indimostrabili senza strumenti di verifica robusti, che al momento sono poco diffusi e, soprattutto, poco compresi dal pubblico.

Esistono tentativi di soluzione, naturalmente. Standard come C2PA o tecnologie come SynthID promettono di tracciare l’origine dei contenuti digitali, introducendo una sorta di “catena di custodia” per immagini e video. Il problema è che queste soluzioni richiedono adozione su larga scala e, soprattutto, fiducia nelle istituzioni che le implementano. Due condizioni che, nel clima attuale, sembrano quasi utopiche. È un po’ come cercare di introdurre regole contabili in un mercato che ha già deciso di ignorare i bilanci.

Nel frattempo, il pubblico si adatta come può. Nasce una nuova alfabetizzazione, fatta di fact-checking amatoriale, analisi frame-by-frame, discussioni infinite nei commenti. Organizzazioni come Snopes o PolitiFact fanno un lavoro importante, ma operano con un ritardo strutturale rispetto alla velocità di diffusione delle informazioni. La smentita arriva sempre dopo la viralità. È una partita persa in partenza, almeno sul piano temporale.

Questa situazione genera un fenomeno che definirei “inflazione della realtà”. Più prove visive abbiamo, meno valgono. È lo stesso meccanismo che si osserva nei mercati monetari quando si stampa troppa valuta. La scarsità, che è alla base del valore, scompare. Un video non è più una prova, ma solo una delle tante possibili versioni di un evento. La realtà diventa un’opinione tra le altre.

La conseguenza più pericolosa non è la diffusione di contenuti falsi, ma l’erosione della fiducia in quelli veri. Se ogni immagine può essere manipolata, allora nessuna immagine è affidabile. Questo crea uno spazio perfetto per la manipolazione strategica. Non serve più convincere le persone di una menzogna; basta convincerle che la verità è irraggiungibile. È una strategia molto più efficiente, e decisamente più sofisticata.

Nel caso specifico di Netanyahu, la lunghezza del video originale, quasi quaranta minuti, rappresenta un dettaglio tecnico interessante. I modelli generativi attuali faticano ancora a produrre sequenze così lunghe e coerenti. Questo dovrebbe essere un indizio a favore dell’autenticità. Ma in un contesto di sfiducia generalizzata, anche gli indizi tecnici perdono peso. La percezione batte la realtà, ogni volta.

Il dettaglio della tazza di caffè è emblematico. Un oggetto banale diventa un campo di battaglia semantico. Il modo in cui il liquido si muove, il livello che sembra non diminuire, la presa della mano. Tutto viene analizzato, interpretato, discusso. È una forma di iper-attenzione che ricorda certe pratiche religiose medievali, dove ogni dettaglio di un testo sacro veniva scrutinato alla ricerca di significati nascosti. Solo che qui il testo è un video compresso su una piattaforma social.

La tecnologia, nel frattempo, continua a correre. I modelli video stanno migliorando a un ritmo che ricorda da vicino le leggi di scala che hanno guidato l’evoluzione dei modelli linguistici. Più dati, più calcolo, meno errori. È una traiettoria prevedibile, quasi banale. Ciò che non è prevedibile è come le società democratiche riusciranno ad adattarsi a questa nuova normalità.

Una possibilità è l’emergere di un nuovo tipo di infrastruttura della verità, basata su crittografia, firme digitali e sistemi distribuiti di verifica. Una sorta di “internet della realtà certificata”. Un’altra possibilità, meno rassicurante ma forse più realistica, è che ci abitueremo a vivere in uno stato di ambiguità permanente, dove la verità è sempre probabilistica e mai definitiva.

Nel frattempo, la Silicon Valley continua a vendere soluzioni con la stessa disinvoltura con cui ha creato il problema. L’AI viene presentata come strumento di empowerment, democratizzazione, creatività. Tutto vero, in parte. Ma è anche uno strumento di destabilizzazione cognitiva su scala globale. Una tecnologia che non si limita a cambiare cosa vediamo, ma come crediamo.

Qualcuno, con una certa ironia, potrebbe dire che stiamo entrando in una nuova era illuminista, dove la ragione e il dubbio diventano centrali. La differenza è che, questa volta, il dubbio non è un metodo per arrivare alla verità, ma un fine in sé. Un rumore di fondo permanente che rende ogni certezza sospetta.

Il risultato finale è un ecosistema informativo in cui anche un gesto semplice, come bere un caffè, può diventare oggetto di analisi geopolitica. Una realtà in cui un leader mondiale deve dimostrare di avere cinque dita per essere creduto. Una situazione che, se non fosse già reale, sarebbe probabilmente liquidata come satira.

Forse la frase più onesta, in tutto questo, è anche la più banale: non possiamo più fidarci dei nostri occhi. Il problema è che non abbiamo ancora deciso di cosa possiamo fidarci al loro posto.