La crisi della realtà non è arrivata con un’esplosione. È entrata silenziosa, compressa in un feed infinito, normalizzata da milioni di scroll quotidiani. Foto e video, per decenni garanzia implicita di verità, sono diventati oggetti probabilistici. Forse veri, forse no. Dipende. E mentre il pubblico inizia a metabolizzare l’idea che fidarsi dei propri occhi sia un atto di fede più che di ragione, l’industria tecnologica propone una soluzione che ha il sapore delle buone intenzioni e l’efficacia di una foglia di fico digitale: etichettare tutto. Mettere un bollino sulla realtà e sperare che regga.

Il nome di battesimo di questo tentativo è C2PA, acronimo che suona rassicurante e tecnico quanto basta da sembrare serio. L’idea, sulla carta, è quasi elegante. Ogni immagine o video porta con sé una scia di metadati che racconta dove è nato, come è stato modificato, quali strumenti sono stati usati. Una sorta di pedigree digitale. Il problema è che il mondo reale non è un laboratorio e Internet non è un ambiente controllato. È un mercato caotico, popolato da incentivi perversi e attori in malafede. Pensare che basti un’etichetta per rimettere ordine è un atto di ottimismo che rasenta l’ingenuità.

Dietro C2PA c’è soprattutto Adobe, azienda che conosce bene il valore simbolico degli strumenti creativi. Photoshop ha insegnato al mondo che le immagini possono mentire molto prima dell’AI generativa. Oggi la stessa azienda prova a vendere l’idea opposta: la trasparenza come salvezza. Al tavolo siedono anche giganti come Meta, Microsoft, Google e OpenAI. Nomi che evocano potere, scala globale, capacità di imporre standard. Ed è qui che nasce la prima crepa concettuale. Gli stessi soggetti che spingono modelli generativi sempre più potenti sono anche i principali distributori di contenuti. Chiedere loro di rendere visibile ciò che potrebbe svalutare il loro stesso prodotto è come chiedere a un produttore di sigarette di stampare in caratteri cubitali che fumare non conviene.

Il difetto strutturale di C2PA non è solo tecnico. È filosofico. Non nasce come sistema di rilevamento dell’AI, ma come strumento di tracciabilità creativa. Serve a dire chi ha scattato una foto, con quale fotocamera, quali passaggi di editing ha subito. Una cosa preziosa per fotografi professionisti, agenzie, archivi. Molto meno per il cittadino che scorre un social alle sette del mattino cercando di capire se un video di un arresto, di una guerra o di una protesta sia autentico. In quel contesto la complessità dei metadati non aiuta. Nessuno clicca su “ulteriori informazioni” quando l’emozione è già stata attivata.

C’è poi il problema banale e devastante della fragilità. I metadati possono essere rimossi. Talvolta per malizia, spesso per semplice incuria tecnica. Piattaforme che comprimono, riconvertono, ottimizzano contenuti finiscono per spogliare i file di ciò che dovrebbe certificarli. Paradossalmente lo ammettono anche gli stessi promotori del sistema. Un’etichetta che scompare al primo passaggio di upload non è un’ancora di verità, è un adesivo attaccato male.

Nel frattempo il messaggio che filtra ai piani alti delle piattaforme è di tutt’altro tenore. Adam Mosseri ha dichiarato apertamente che il default mentale dovrebbe cambiare. Non fidarsi più delle immagini. Partire dallo scetticismo. È una frase che pesa come un macigno storico. Significa ammettere che il patto implicito tra tecnologia e società, quello per cui una foto era una prova, è rotto. Non incrinato. Rotto.

A quel punto l’etichetta non serve più a proteggere la realtà, ma a gestire il disincanto. Diventa un segnale debole in un mare di contenuti dove il vero e il falso convivono senza gerarchie chiare. E qui emerge un altro effetto collaterale raramente discusso con onestà. Le etichette fanno arrabbiare tutti. I creatori perché vedono svalutato il proprio lavoro. Il pubblico perché non capisce cosa significhi davvero “assistito da AI”. I brand perché temono di sembrare cheap. La parola AI, oggi, non è neutra. È un giudizio implicito.

Il paradosso è che l’AI è già ovunque anche dove non la chiamiamo così. Algoritmi di miglioramento delle immagini, riduzione del rumore, HDR computazionale, stabilizzazione video. Tecnologie che da anni manipolano la realtà in nome di una verità percepita migliore. Quando una foto smette di essere reale e diventa artificiale. Quando un intervento è accettabile e quando no. Nessun comitato di standardizzazione ha mai risposto seriamente a queste domande, perché sono domande culturali prima che tecniche.

In questo scenario l’assenza di Apple è quasi assordante. Il più grande produttore di fotocamere del mondo, almeno in termini di volume, osserva dalla linea laterale. Nessun endorsement pubblico, nessuna adesione formale. Strategia attendista o consapevolezza che nessun bollino potrà restituire ciò che è stato perso. Il valore di Apple è sempre stato il controllo dell’esperienza, non la partecipazione a standard imperfetti. Entrare ora significherebbe legittimare una soluzione debole.

Intanto la realtà continua a degradarsi sotto il peso di incentivi sbagliati. I contenuti artificiali performano. Generano engagement. Alimentano cicli pubblicitari. I governi stessi non sono immuni dalla tentazione di usare immagini sintetiche per rafforzare narrazioni politiche. In un mondo così, aspettarsi che l’autoregolamentazione funzioni è quasi comico. Le piattaforme dicono di lavorarci, di migliorare, di affinare. Una litania che conosciamo bene. Nel frattempo la velocità di produzione supera di ordini di grandezza quella della verifica.

C2PA, in questo quadro, non è un fallimento tecnico. È un alibi. Serve a dire “stiamo facendo qualcosa” mentre il problema cresce. È utile per archiviare, per attribuire, per proteggere diritti d’autore. Non per salvare una realtà condivisa. Pensare di etichettare la verità è un riflesso burocratico applicato a un fenomeno antropologico. La fiducia non nasce da un metadato, ma da istituzioni, contesti, reputazioni costruite nel tempo.

Il futuro probabile non è un Internet pieno di bollini verdi e rossi, ma un ecosistema frammentato dove la credibilità si sposta dai contenuti alle fonti. Non ci si chiederà più “questa immagine è vera”, ma “mi fido di chi la pubblica”. È un ritorno a dinamiche premoderne, tribali quasi, mediate però da algoritmi opachi. Una regressione elegante, vestita da progresso.

Qualcuno invocherà la regolazione. Altri la tecnologia salvifica successiva. Intanto la realtà resta un terreno conteso. Etichettarla non la renderà più solida. Al massimo renderà più evidente quanto sia diventata fragile. E forse è questo il punto che l’industria fatica ad ammettere. Non stiamo perdendo la battaglia contro i deepfake. Stiamo scoprendo che la verità, nell’era digitale, non è mai stata un default. Era solo una comoda illusione.