Il recente attacco congiunto degli Stati Uniti e di Israele contro l’Iran ha scatenato un’ondata di immagini e video che pretendono di documentare l’evento, ma la maggior parte si rivela essere vecchia, estranea ai fatti o generata artificialmente. Alcune di queste sono tratte da videogiochi militari come War Thunder, e la diffusione incontrollata ha creato un terreno fertile per la disinformazione, capace di ingannare anche osservatori attenti. L’esperienza dimostra che l’era digitale non ha semplicemente amplificato le notizie, ma le ha rese permeabili a manipolazioni sofisticate, in cui la distinzione tra realtà e simulazione diventa quasi impercettibile senza strumenti e procedure rigorose.
Organizzazioni come The New York Times, Indicator e Bellingcat hanno sviluppato protocolli di verifica estremamente stringenti, finalizzati a evitare la pubblicazione di contenuti sintetici o fuorvianti. Charlie Stadtlander, direttore esecutivo delle comunicazioni al The New York Times, ricorda che il pubblico può affidarsi a fonti indipendenti che si impegnano a autenticare visivi e a spiegare chiaramente la provenienza. La verifica, tuttavia, resta un compito complesso, perché le tecniche di deepfake sono sofisticate e gli strumenti di rilevazione automatica ancora limitati.
Il primo passo consiste nell’osservare con attenzione quasi maniacale. Nel caso delle immagini non verificate del leader venezuelano Nicolás Maduro dopo il suo presunto rapimento da parte degli Stati Uniti, il team Visual Investigations del The New York Times ha individuato incongruenze visive, come finestre di aeromobili dall’aspetto anomalo. Anche dettagli minimi, come differenze negli abiti tra due foto apparentemente identiche, possono essere sufficienti a squalificare un’immagine dalla pubblicazione. La lezione principale è che la cattura dell’illusione digitale richiede una lente d’ingrandimento culturale e tecnica: architetture, figure sullo sfondo, proporzioni e luci possono tradire la natura artificiale dell’immagine.
Il secondo principio riguarda la valutazione della fonte. Un’immagine pubblicata da Donald Trump su Truth Social mostrava Maduro in custodia, ma la pubblicazione era contestualizzata: The New York Times ha scelto di riportarla come screenshot del post, evitando di presentarla come foto giornalistica autonoma. L’affidabilità di governi o figure pubbliche è spesso problematica, e un account appena creato che diffonde contenuti sensazionali può essere un indicatore di manipolazione: Jeremy Carrasco, creatore di ShowtoolsAI e Riddance, lo definisce “Account Age Paradox”. La tecnologia per deepfake realistici è recente, quindi molti account propagatori sono nati insieme ai modelli AI stessi.
Terzo punto: controllare la traccia digitale. Reverse image search, analisi dei metadati e confronto con archivi precedenti possono smascherare false correlazioni tra immagini e contesti. Un esempio evidente riguarda un’esplosione in un deposito di munizioni ucraino nel 2017 erroneamente attribuita a un impianto nucleare israeliano. Piattaforme OSINT come Bellingcat combinano controlli visivi, cross-referencing e software specializzati per risalire alla provenienza e confermare o smentire la veridicità, ma la crescente accessibilità di strumenti generativi aumenta la complessità operativa. Eliot Higgins, direttore creativo di Bellingcat, sottolinea come la sovrabbondanza di falsi convinca i malintenzionati a liquidare come “potenzialmente AI” anche materiale autentico. La chiave rimane la provenienza e il contesto, non solo l’analisi dei pixel.
Il quarto passaggio riguarda datazione e geolocalizzazione. Strumenti satellitari, mappe digitali, indicatori fisici e persino calcolo delle ombre tramite SunCalc consentono di stimare ora e luogo di uno scatto. Per Higgins, la definizione personale di fotografia autentica è “un momento reale catturato dalla luce su un sensore o pellicola”: modifiche minori come ritaglio o contrasto sono tollerabili, ma aggiungere o rimuovere elementi, specialmente con AI, trasforma l’immagine in arte digitale o propaganda. La fiducia risiede nella provenienza onesta, e non in pixel perfetti.
Craig Silverman di Indicator ribadisce l’importanza della consapevolezza individuale: l’ambiente informativo è intrinsecamente inclinato alla manipolazione. Social network che non etichettano contenuti generati da AI contribuiscono a un paesaggio digitale caotico, dove la viralità e le emozioni facilitano la disinformazione. Ogni utente può contribuire rallentando la condivisione impulsiva, verificando fonti multiple e utilizzando strumenti accessibili gratuitamente, come reverse image search o ExifTool. La pazienza e l’attenzione diventano competenze critiche, perché le informazioni richiedono tempo per svilupparsi e solo la pratica costante permette di navigare un ecosistema digitale saturato di illusioni.
Il quadro complessivo rivela come la crisi informativa non sia una questione tecnologica isolata, ma un fenomeno sistemico che intreccia generative AI, fiducia pubblica, governance delle piattaforme e capacità investigative. La disinformazione non è più un sottoprodotto accidentale della comunicazione online, ma un ecosistema complesso, dove la competenza critica, l’uso di strumenti OSINT e l’attenzione alla provenienza dei contenuti diventano strumenti essenziali per distinguere tra realtà, manipolazione e narrazione artificiale. La pratica quotidiana di questi principi può non solo proteggere l’individuo dalla trappola dei falsi, ma rafforzare la resilienza dell’intero ecosistema informativo, trasformando la cautela in un’arma strategica contro la proliferazione dei deepfake e della propaganda digitale.
Verafiles.org:
https://verafiles.org/articles/fact-check-video-of-burj-khalifa-collapsing-iran-missile-attack-ai-generated
https://www.houstonchronicle.com/news/politics/article/greg-abbott-iran-video-post-21950767.php
INDICATOR: https://indicator.media/
bellingcat: https://www.bellingcat.com/