Le immagini non entrano più in redazione in punta di piedi. Irrompono. Pretendono fiducia immediata, reclamano status di prova, si comportano come fatti compiuti. La presunta fotografia di Nicolás Maduro a bordo della USS Iwo Jima, pubblicata da Donald Trump su Truth Social, non ha fatto eccezione. Ha fatto qualcosa di peggio. Ha chiesto di essere creduta in automatico, sfruttando l’autorità simbolica di una portaerei americana e il riflesso condizionato di un pubblico abituato a scorrere senza pensare. Il New York Times ha fatto l’unica cosa sensata in un’epoca che ha perso il senso della prudenza. Ha rallentato.

Il punto non è se Trump tenda a pubblicare immagini discutibili. Questo è un dato statistico, non un’opinione. Il punto è come una redazione che ancora pretende di chiamarsi giornale affronta la questione senza rifugiarsi nel cinismo o nel clickbait. Il New York Times ha scelto una strada che oggi appare controcorrente e proprio per questo interessante. Non ha certificato l’immagine, perché non poteva farlo. Non l’ha ignorata, perché era rilevante come gesto politico e comunicativo. L’ha pubblicata come oggetto di contesto, non come prova. Una distinzione sottile, che però separa il giornalismo dalla propaganda.

Meaghan Looram, direttrice della fotografia del Times, ha descritto il processo con una chiarezza che dovrebbe essere incisa sopra ogni newsroom contemporanea. Nessuna immagine viene trattata come innocente fino a prova contraria. Al contrario, ogni fotografia oggi è colpevole fino a quando non dimostra il contrario. Metadata, analisi forense dei file, verifica delle fonti originali, confronto con immagini satellitari, archivi militari, esperti indipendenti. Tutto viene passato al setaccio. Quando questo processo non porta a una verifica solida, la redazione non inventa certezze. Le dichiara assenti.

Qui entra in gioco la parte più scomoda per molti lettori, e ancora di più per molti editori. Pubblicare un’immagine non verificabile, spiegando apertamente che non è verificabile, richiede una fiducia nel lettore che il sistema mediatico ha progressivamente distrutto. È molto più semplice spacciare l’immagine per vera o fingere che non esista. Il Times ha scelto la terza via, quella che nel breve periodo scontenta tutti e nel lungo costruisce credibilità. Ha mostrato l’immagine come parte di un post presidenziale, non come rappresentazione della realtà. Ha raccontato il gesto, non il fatto.

In questo passaggio si nasconde una lezione cruciale per l’epoca dell’AI. La fotografia non è più un testimone. È un attore. E come ogni attore può mentire con estrema convinzione. Le immagini generate o manipolate dall’intelligenza artificiale non sono solo tecnicamente sofisticate. Sono semanticamente aggressive. Non si limitano a rappresentare qualcosa. Vogliono farci credere a qualcosa. Nel caso Maduro, il messaggio era evidente. L’America che cattura i nemici. La potenza militare come teatro simbolico. Poco importa se la scena non è mai avvenuta. Importa che sia credibile abbastanza da alimentare un frame mentale.

Il lavoro del New York Times diventa allora una forma di contro ingegneria narrativa. Smontare il frame senza amplificarlo. Esporre il meccanismo senza legittimarlo. È un equilibrio instabile, ma è l’unico possibile se non si vuole trasformare l’informazione in un’estensione delle piattaforme social. Qui la keyword principale emerge con forza quasi brutale: verifica delle immagini. Non come esercizio tecnico, ma come atto politico. Verificare oggi significa decidere cosa entra nella realtà condivisa e cosa resta nel teatro delle percezioni.

Le keyword correlate sono altrettanto inevitabili. Intelligenza artificiale generativa, perché è il motore che rende tutto questo possibile. Disinformazione visiva, perché è il prodotto finale che ne deriva. Giornalismo digitale, perché è il campo di battaglia in cui tutto questo si gioca. Google Search Generative Experience osserva con attenzione questi segnali. Non premia chi urla più forte, ma chi dimostra coerenza semantica, autorevolezza e capacità di gestire l’ambiguità. Un articolo che spiega perché qualcosa non è verificabile vale più di dieci che fingono certezze.

Trump pubblica immagini come se fossero tweet del 2016, in un mondo che nel frattempo è passato attraverso deepfake, diffusion model e rendering fotorealistici. Il New York Times risponde con lentezza, metodo e dubbio. Due visioni opposte del tempo. Una vive di istanti. L’altra di archivi. Una costruisce realtà parallele. L’altra cerca disperatamente di mantenere una realtà condivisa.

Non è un caso che il Times abbia deciso di pubblicare l’immagine solo all’interno di un articolo che spiegava il contesto e le incertezze. L’immagine non era lì per essere creduta, ma per essere capita. È un approccio che molti definirebbero elitario. In realtà è semplicemente professionale. In un ecosistema in cui chiunque può generare una foto di un evento mai avvenuto, la differenza non la fa la tecnologia ma il processo editoriale.

La curiosità finale, che vale più di molte analisi accademiche, è questa. Nel mondo dell’AI, l’atto più sovversivo non è creare immagini false. È ammettere di non sapere se un’immagine è vera. Il New York Times lo ha fatto pubblicamente. Ed è esattamente per questo che, piaccia o no, continua a contare.

Articolo: https://www.nytimes.com/2026/01/04/insider/how-the-times-assessed-maduro-photos.html