Non è una domanda retorica, è una provocazione. Una necessaria, urgente, feroce provocazione. Mentre il mondo si perde tra l’isteria da ChatGPT e la narrativa tossica del “l’AI ci ruberà il lavoro (o l’anima)”, ci sono decisioni molto più silenziose e infinitamente più decisive che si stanno prendendo altrove, tra comitati tecnici, audizioni parlamentari e board di fondazioni ben vestite di buone intenzioni. Decisioni che non fanno rumore, ma costruiscono impalcature che domani potrebbero regolare ogni riga di codice, ogni modello, ogni automatismo. Benvenuti nel teatro invisibile della AI governance.
L’intelligenza artificiale non è un giocattolo da laboratorio, ma neppure un dio meccanico che ci sovrasterà tutti. È tecnologia ad altissimo impatto sistemico. Come tale, richiede regole. Ma attenzione: nel momento esatto in cui scrivi una regola, stai già decidendo chi vincerà il gioco. Ecco perché il primo principio non è tecnico, è politico. Qualsiasi intervento di policy deve bilanciare benefici e rischi materiali, non l’eco del panico mediatico o le isterie regolatorie del momento. Una legge sull’AI fatta per accontentare i titoli di giornale è pericolosa quanto un algoritmo fuori controllo.
La governance non può essere un atto di fede, dev’essere un mestiere. Un mestiere che parte da un presupposto tanto semplice quanto dimenticato: le politiche pubbliche vanno costruite su evidenze empiriche, non su dichiarazioni di intenti. Lo dice la logica, lo conferma l’economia comportamentale, lo ignora buona parte dei legislatori che ancora si entusiasmano per le demo di Midjourney senza sapere distinguere un modello supervisionato da uno generativo. Per costruire policy efficaci sull’intelligenza artificiale serve un apparato analitico all’altezza del tema: multidisciplinare, sperimentale, fastidiosamente rigoroso.
Tutto questo si gioca in anticipo. Le prime scelte di design normativo hanno un impatto sproporzionato sulle traiettorie future, sia tecnologiche che regolatorie. Un esempio? Quando l’Europa ha deciso di incasellare l’AI Act in base ai “livelli di rischio”, ha creato una mappa concettuale che ora influenza qualsiasi discussione pubblica, anche quelle che non lo meritano. Eppure nessuno si è fermato a chiedersi se “rischio alto” sia una categoria utile in un mondo dove un piccolo script può causare un’enorme distorsione sociale e un sistema sofisticatissimo può rimanere totalmente innocuo. Ma ormai il framing è fatto. Buona fortuna a cambiarlo.
Un’AI governance seria non può nascere in stanze chiuse. Deve costruire un ecosistema di trasparenza algoritmica che funzioni come un contratto sociale dinamico, non come un manuale ISO da firmare e ignorare. Per farlo, serve una cosa sola: incentivi ben allineati. Premiare chi adotta pratiche di sicurezza, coinvolgere l’expertise delle imprese senza regalar loro le chiavi della sorveglianza, proteggere davvero i consumatori e – non fa mai male – disinnescare preventivamente le retoriche populiste. Tutto questo si può fare, ma solo se si costruisce un ambiente dove l’evidenza diventa più potente della narrativa.
La trasparenza non è uno slogan etico, è una tecnologia politica. Serve più trasparenza non perché sia moralmente giusta, ma perché è funzionalmente necessaria per generare fiducia, accountability e concorrenza. La logica è quella del “trust but verify”: puoi fidarti solo se puoi controllare, e puoi controllare solo se hai accesso all’informazione. Qui entra in gioco la parte sporca ma essenziale della governance: protezioni per i whistleblower, valutazioni indipendenti, pubblicazione di documenti tecnici, report di sicurezza leggibili anche da chi non lavora a DeepMind. Ah, e magari qualche multa significativa quando le regole vengono ignorate. Il tutto senza uccidere l’innovazione, ovviamente, ma neanche lasciando che si travesta da anarchia cool.
Una delle leve più sottovalutate è il monitoraggio post-deployment. È ora di trattare i modelli di AI come si trattano i farmaci: con sistemi di segnalazione degli eventi avversi, anche se gli eventi in questione non causano rash cutanei ma bias strutturali o disinformazione sistematica. Pensare che l’impatto dell’AI finisca con il rilascio del prodotto è una forma avanzata di negazionismo tecnologico. Ogni modello, una volta rilasciato nel mondo, interagisce con ambienti reali, dati in evoluzione, comportamenti umani imprevedibili. Serve un feedback loop permanente, non un audit ogni cinque anni.
E qui si tocca un punto nevralgico: le soglie per attivare interventi di policy non possono essere arbitrarie o formali, devono essere progettate con precisione chirurgica per servire obiettivi di governance chiari e misurabili. Non basta dire “se è pericoloso, allora lo valutiamo”. Chi stabilisce cosa è pericoloso? Su quali basi? Con quale livello di trasparenza? E soprattutto: cosa succede dopo la valutazione? Siamo ancora in un momento storico in cui buona parte delle regole sull’intelligenza artificiale si limitano a invocare “disclosure” come se bastasse un whitepaper per garantire responsabilità. Spoiler: non basta. Mai bastato.
Questa è la nuova architettura del potere digitale: chi controlla le definizioni, controlla le regole. E chi controlla le regole, controlla i risultati. L’AI governance non è un dibattito tecnico, è un campo di battaglia strategico. Eppure in molti sembrano ancora convinti che basti copiare le best practice dalle big tech, aggiungere due comitati etici e un po’ di retorica sulla “sostenibilità digitale”. La realtà è molto meno elegante. Se non si costruiscono regole che sappiano essere flessibili, verificabili e dotate di enforcement reale, non stiamo scrivendo una policy. Stiamo solo aspettando il prossimo disastro.
E no, non serve un’altra task force. Servono strumenti concreti, soglie operative, incentivi intelligenti, verifiche indipendenti. Serve la capacità – quasi dimenticata – di scrivere norme che non siano né astratte né autocelebrative. Perché alla fine, in un’epoca in cui ogni algoritmo è anche un atto politico, il vero fallimento non sarà una macchina che sbaglia, ma una società che non sa come reagire.
Ah, e già che ci siamo: chi sarà il primo regolatore a farsi valutare da un modello d’intelligenza artificiale? Perché forse, per una volta, la trasparenza potrebbe iniziare proprio da lì.