Quello che ti irrita di Altman è probabilmente la stessa cosa che lo rende pericolosamente convincente: dice una mezza verità e la fa sembrare una rivelazione assoluta. L’equazione che propone tra la foto di un iPhone e un video interamente sintetico di conigli saltellanti è un colpo di mano retorico elegante ma fuorviante. Certo, anche lo scatto di uno smartphone è filtrato, compresso, ribilanciato, arricchito di micro-contrasti e piccoli “aggiustamenti” cromatici. Ma quella non è la stessa cosa di un’immagine che non ha mai visto un fotone in vita sua. È la differenza tra ritoccare il trucco a una modella e inventare la modella da zero con un prompt di testo.

La parte più subdola è che Altman gioca con un concetto psicologico fondamentale: l’elasticità della percezione del reale. Sa che la definizione di “realtà accettata” è già cambiata con Photoshop, con Instagram, con le fotocamere computational e ora con i filtri AI. Ma c’è un limite oltre il quale l’illusione smette di essere godibile perché perde la connessione con l’evento che presumibilmente rappresenta. Il video dei conigli funziona solo se credi che quei conigli abbiano davvero fatto quella cosa, in quel giardino, in quel momento. Quando scopri che è stato partorito da un modello generativo, ti senti preso in giro. È un po’ come ridere di una barzelletta e poi scoprire che era un esperimento sociale.

Il vero punto di rottura, e qui Altman sembra glissare, è il valore attribuito all’origine dell’immagine. Un sensore ottico cattura un fenomeno fisico e lo traduce in dati. Un modello generativo inventa quei dati a partire da probabilità. Nel primo caso, c’è un legame diretto con il mondo materiale; nel secondo, c’è solo una plausibilità visiva. Questa distinzione è cruciale non tanto per ragioni filosofiche, ma per come condiziona la fiducia nei contenuti. E la fiducia, nel mercato dell’attenzione, è moneta sonante.

C’è anche un elemento economico che non va ignorato. La proliferazione di contenuti AI spinge verso una svalutazione della rarità visiva. Oggi un tramonto spettacolare o un evento bizzarro ha ancora un valore virale perché è difficile da replicare. Domani, con l’infinita replicabilità dell’AI, la domanda non sarà più “è bello?” ma “è successo davvero?”. Il che significa che il “valore di autenticità” diventerà una commodity premium, certificata, magari venduta con watermark blockchain o metadati crittografici. Non per caso, diversi colossi tech stanno già investendo in standard come il C2PA per legare contenuti a prove di cattura reale. È la guerra dei certificati digitali, e sarà un business da miliardi.

Altman, dicendo che la soglia di ciò che consideriamo reale si sposterà ancora, ha ragione su una cosa: si sposterà. Ma non è detto che si sposterà in direzione della sua tesi ottimista. Potrebbe muoversi in senso opposto, verso una richiesta spasmodica di autenticità certificata. In un mare di simulazioni perfette, il pixel grezzo, imperfetto, con il suo rumore ottico, diventerà il nuovo lusso. E allora i conigli sul trampolino non saranno più solo fake, saranno cheap.