Il lato oscuro della governance dell’AI
Chi pensa che l’intelligenza artificiale sia solo una questione di innovazione tecnologica non ha ancora capito il vero gioco. Non si tratta soltanto di modelli che scrivono poesie o generano codice, ma di sistemi che rischiano di destabilizzare interi mercati se lasciati senza controllo. È qui che entra in scena l’AI Risk Atlas, l’ennesimo tentativo di dare una mappa a un territorio che sembra più simile a una giungla con predatori invisibili che a un’oasi di progresso. La promessa è seducente: tassonomie chiare, rischi ordinati in categorie, strumenti open source per dare un ordine alla confusione. In realtà, ciò che questo documento dimostra è che la governance dell’AI è diventata il nuovo terreno di scontro geopolitico e industriale. Non è solo una questione di etica, ma di potere.
Il paradosso è che serviva una mappa per spiegare che le mappe non bastano. L’AI Risk Atlas raccoglie rischi da fonti accademiche, industriali e normative, costruendo un’enciclopedia dei pericoli che vanno dall’evidente all’assurdo: dalla violazione della privacy agli attacchi di prompt engineering, dalla trasparenza mancata alla possibilità che un agente AI inizi a inventarsi funzioni inesistenti e generare disastri a catena. Una sorta di enciclopedia dell’incubo che però vuole trasformarsi in guida pratica. Eppure la vera ambizione non è catalogare, ma normalizzare. Creare un linguaggio unico per discutere dei rischi dell’intelligenza artificiale e fornire strumenti di governance che siano accettabili da aziende, regolatori e persino sviluppatori.
Il punto è che dietro ogni categoria di rischio non c’è un problema tecnico, ma un potenziale scontro di interessi. Parlare di fairness significa toccare il cuore delle disuguaglianze sociali. Parlare di explainability significa minare i segreti industriali delle big tech. Parlare di governance significa decidere chi controlla chi. L’AI Risk Atlas mette in fila queste parole come se fossero voci neutre di un dizionario, ma in realtà sono armi concettuali in una battaglia che riguarda miliardi di dollari e il controllo della narrazione tecnologica.
È ironico notare che la stessa IBM, promotrice dell’Atlas, era considerata fino a poco tempo fa un dinosauro dell’AI, oscurata da Google, OpenAI e Meta. Con questo progetto si ricicla come guardiano della responsabilità, proponendo non solo un catalogo di rischi ma anche il Risk Atlas Nexus, una cassetta degli attrezzi per collegare framework diversi, trasformare definizioni astratte in workflow operativi e automatizzare la compliance. In poche parole, un tentativo di rendere monetizzabile la governance. Ogni rischio mappato diventa un nuovo business model per consulenti, policy makers e venditori di software di auditing.
Chi immagina che tutto questo sia solo accademia si sbaglia. L’AI Risk Atlas parla di prompt leaks, di attacchi sociali mascherati da richieste creative, di deepfake non consensuali, di agenti che condividono informazioni confidenziali con la leggerezza con cui un adolescente condivide un meme. Questi non sono scenari futuristici ma già presenti, e il documento li inserisce in una tassonomia precisa che va dagli input alla produzione, fino agli impatti sociali. Il rischio diventa così un asset misurabile, una variabile da integrare nei bilanci delle aziende, un KPI per gli investitori. La governance dell’AI smette di essere un tema etico e diventa una nuova voce a budget.
L’aspetto più disturbante è che l’AI Risk Atlas non si limita a elencare pericoli, ma li rende in qualche modo “governabili” grazie al linguaggio delle ontologie e dei knowledge graph. Come se bastasse una rappresentazione semantica per trasformare l’incertezza in controllo. È il tipico sogno ingegneristico: ridurre il caos a tabelle e grafi. Ma la realtà è che nessuna tassonomia potrà mai catturare le conseguenze imprevedibili di un sistema che evolve più velocemente delle norme che dovrebbero regolarlo. Le stesse categorie, dalla trasparenza all’impatto ambientale, rischiano di essere travolte da nuovi fenomeni che nessuno aveva previsto. In fondo, chi parlava di hallucinations prima del 2022?
Il valore dell’AI Risk Atlas è quindi duplice. Da un lato fornisce un dizionario condiviso che aiuta imprese e governi a discutere senza perdersi in traduzioni approssimative. Dall’altro lato, diventa un’arma politica: se controlli la tassonomia dei rischi, controlli il modo in cui la società percepisce l’intelligenza artificiale. Decidere che cosa è un rischio e che cosa non lo è significa decidere anche cosa merita ricerca, fondi, regolamentazione. È un’operazione di framing, non di mera analisi tecnica.
Se ci pensiamo bene, il vero rischio dell’AI è che la sua governance venga catturata da chi la governa. Creare mappe di pericoli è utile, ma chi disegna la mappa decide anche quali territori oscurare. L’AI Risk Atlas parla molto di disinformazione generata dalle macchine, ma dice poco sulla disinformazione prodotta dalle aziende che vendono AI. Parla di rischi di privacy, ma non entra mai nel dettaglio di come la concentrazione di potere sui dati renda le democrazie vulnerabili. Parla di agenti autonomi che potrebbero generare azioni imprevedibili, ma non discute il fatto che il vero agente autonomo è il mercato stesso, sempre pronto a sfruttare nuove opportunità a costo di sacrificare diritti individuali.
Eppure, nonostante questa ambiguità, l’AI Risk Atlas diventa indispensabile. Non perché risolva i problemi, ma perché fornisce un terreno comune dove negoziarli. È un atlante che non guida tanto i tecnici, ma i politici e i manager. In questo senso, funziona come un glossario geopolitico mascherato da tassonomia tecnica. Avere una categoria chiamata hallucination, con tanto di definizione e collegamenti a framework esistenti, significa che il problema diventa ufficiale, che potrà essere inserito nei contratti, nei report ESG, nei controlli di compliance. Significa che improvvisamente il rischio diventa monetizzabile, assicurabile, regolabile.
La governance dell’AI, in fondo, è questo: trasformare l’imprevedibile in costo prevedibile. L’AI Risk Atlas è solo l’ultimo strumento di un mercato che ha capito come vendere non solo soluzioni, ma anche paure. La vera ironia è che mentre cerchiamo di mitigare i rischi degli algoritmi, stiamo creando un’industria che prospera proprio sulla loro esistenza. L’AI rischia di diventare il nuovo petrolio non per l’energia che fornisce, ma per l’inquinamento che genera e le tasse che giustifica.
Se l’AI Risk Atlas riuscirà a diventare lo standard globale non dipenderà dalla sua precisione tecnica, ma dalla capacità di IBM e dei suoi partner di imporlo come lingua franca. Il resto del mondo si adeguerà, un po’ come è successo con le metriche finanziarie o con gli standard contabili. E così la governance dell’AI diventerà il nuovo IFRS della tecnologia: una cornice che permette al capitale di muoversi riducendo l’incertezza, anche se non riduce i rischi reali. Perché i rischi veri non stanno nei grafi semantici, ma nei comportamenti collettivi che nessun algoritmo potrà mai incasellare.
Il futuro ci riserva sorprese più grandi dei framework di governance. L’AI Risk Atlas resterà come testimonianza di un’epoca in cui pensavamo che il caos potesse essere domato con un glossario. Eppure, per un investitore, un regolatore o un CEO, avere un glossario è già una forma di potere. La prossima volta che leggerete di un algoritmo che sbaglia diagnosi, di un chatbot che insulta l’utente o di un agente autonomo che si inventa nuove regole, ricordatevi che da qualche parte, in una tassonomia ben ordinata, quel rischio è già stato classificato. Non vi salverà, ma vi farà sentire meglio. Che in fondo è il vero business della governance dell’intelligenza artificiale