C’era una volta il tempo in cui il problema delle notizie false si risolveva con un buon controllo delle fonti e un pizzico di sano scetticismo. Oggi, nell’era dell’intelligenza artificiale generativa, non basta più. Un volto può parlare senza aver mai mosso le labbra, una voce può dire cose mai pronunciate e un testo può sembrare autorevole senza che dietro ci sia una mente umana. Così l’Unione europea ha deciso di fare una cosa molto europea, cioè provare a mettere ordine. Questa volta con un’etichetta.

La Commissione europea ha pubblicato la prima bozza del Codice di buone pratiche sull’etichettatura dei contenuti generati dall’intelligenza artificiale. È il primo passo concreto per rendere operativo uno dei punti più delicati dell’AI Act. L’idea di fondo è semplice, quasi disarmante nella sua chiarezza. Se un contenuto è stato creato o manipolato da un sistema di AI, deve dirlo. Non in piccolo, non in fondo alla pagina, ma in modo leggibile per le persone e per le macchine.

Il codice nasce per accompagnare fornitori e utenti verso questo nuovo obbligo senza aspettare l’ultimo minuto. La Commissione ha scelto la strada di un codice volontario scritto da esperti indipendenti, una sorta di allenamento regolatorio prima della partita vera. Da un lato ci sono le aziende che sviluppano sistemi di intelligenza artificiale generativa, chiamate a inserire marcature e segnali tecnici che rendano riconoscibili i contenuti prodotti dalle loro tecnologie. Dall’altro ci sono gli utenti professionali, cioè chi utilizza l’AI per lavoro, informazione o comunicazione pubblica, che dovrà etichettare in modo chiaro deepfake e testi generati su temi di interesse pubblico.

È un passaggio culturale prima ancora che tecnico. Per anni l’innovazione digitale ha puntato sull’invisibilità, sull’idea che la tecnologia funzionasse meglio quando non si vedeva. Qui accade il contrario. L’Europa chiede trasparenza esplicita, quasi un cartellino sul petto dell’algoritmo che dica presente, sono io. Non per demonizzare l’intelligenza artificiale, ma per rimettere il lettore, l’ascoltatore e il cittadino nella condizione di capire cosa sta guardando.

La bozza del codice è divisa in due grandi aree. La prima riguarda la marcatura e l’individuazione dei contenuti generati dall’AI e si rivolge direttamente ai fornitori di sistemi generativi. È la parte più tecnica, quella che parla il linguaggio dei formati leggibili dalle macchine, delle impronte digitali dei contenuti e dei sistemi di rilevamento. La seconda sezione è più vicina alla vita quotidiana e riguarda l’etichettatura dei deepfake e dei testi generati o manipolati dall’intelligenza artificiale su temi di interesse pubblico. Qui l’attenzione si sposta sull’uso concreto dell’AI nella comunicazione, nell’informazione e nel dibattito pubblico.

Il calendario è già tracciato. Fino al 23 gennaio del prossimo anno la Commissione raccoglierà commenti e osservazioni sulla prima bozza. Entro la metà di marzo del 2026 arriverà una seconda versione e l’obiettivo è chiudere il testo definitivo entro giugno dello stesso anno. Un percorso che lascia spazio al confronto ma che ha una direzione chiara. Quando le norme dell’AI Act entreranno in vigore il 2 agosto 2026, l’alibi dell’impreparazione non sarà più accettabile.

C’è anche un messaggio politico che vale la pena leggere tra le righe. In un mondo in cui la corsa all’intelligenza artificiale è spesso raccontata come una gara senza regole tra Stati Uniti e Cina, ancora una volta l’Unione europea ribadisce la sua vocazione regolatoria. E’ come se il Vecchio Continente dicesse non vogliamo essere i più veloci (ma questo penso sia abbastanza chiaro a tutti), ma i più attenti. Non puntiamo tanto a creare un ecosistema europeo di sviluppo di soluzioni e modelli alternativi, ma a rendere gli riconoscibili, spiegabili e tracciabili gli algoritmi prodotti da altri.

Il dubbio è se l’etichetta sia in grado di risolvere i problemi. Un deepfake segnalato resta comunque un deepfake, così come la disinformazione non scompare per decreto. Ma almeno, verrebbe da dire, per vedere il lato buono della medaglia, in un ecosistema digitale sempre più affollato di contenuti sintetici, sapere se a parlare è un essere umano o una macchina diventa una forma minima di igiene informativa. Un po’ come leggere gli ingredienti su una confezione di snack. Non ci impedisce di mangiare male, ma (volendo) ci aiuta a scegliere.