
Quando uno dei padri nobili dell’intelligenza artificiale usa l’espressione “Russian roulette” per descrivere la corsa globale all’AI, conviene sospendere il rumore di fondo, chiudere il grafico dei capital expenditure e ascoltare. Stuart Russell, professore a University of California, Berkeley e fondatore del Center for Human-Compatible AI, non è un luddista in ritardo sulla rivoluzione. È uno dei pionieri che quella rivoluzione l’ha costruita. E proprio per questo oggi avverte che la competizione tra Stati e colossi privati assomiglia sempre più a una corsa agli armamenti in stile Guerra Fredda, con una differenza sostanziale: qui la tecnologia non è confinata in silos militari, ma distribuita via API.
Le imprese private stanno sviluppando sistemi sempre più potenti a una velocità che, solo cinque anni fa, sarebbe sembrata irresponsabile; oggi è considerata normale. Il mercato impone una traiettoria obbligata. Un CEO che decidesse di rallentare unilateralmente, magari per verificare la robustezza dei meccanismi di allineamento o per attendere standard condivisi, verrebbe sostituito in un trimestre. Gli investitori non pagano la prudenza quando la narrativa è dominata da first mover advantage e winner takes most. Russell descrive questo equilibrio come un gioco in cui nessuno può fermarsi per primo, anche se tutti riconoscono che la direzione è rischiosa.
Il parallelo con la Guerra Fredda non è retorica accademica. Negli anni Sessanta, la logica della deterrenza nucleare si fondava su un presupposto inquietante: la sopravvivenza era garantita dalla capacità di distruzione reciproca. Oggi, la competizione tra Stati Uniti e Cina sull’intelligenza artificiale riproduce una struttura simile, ma in chiave economico-tecnologica. Centinaia di miliardi di dollari vengono riversati in infrastrutture, semiconduttori, data center energivori; le stime sui soli investimenti statunitensi in AI superano i seicento miliardi di dollari quest’anno, cifra che rende irrilevante qualsiasi discussione sulla sobrietà energetica se non accompagnata da una riflessione strategica.
Nessun attore vuole restare indietro. La retorica è nota: l’AI determinerà la supremazia economica, militare e scientifica del XXI secolo. In questo quadro, la prudenza diventa sinonimo di debolezza. La corsa accelera perché ciascuno teme che l’altro abbia già superato una soglia critica. Il problema è che, a differenza delle armi nucleari, i modelli avanzati di intelligenza artificiale non sono confinati a pochi Stati dotati di arsenali certificati; sono prodotti commerciali, integrati in piattaforme, adottati da milioni di utenti e potenzialmente incorporati in sistemi autonomi con capacità operative reali.
Russell sostiene che la mancanza di una governance globale coordinata amplifica il rischio sistemico. Le risposte regolatorie sono frammentate. L’Unione Europea ha scelto un approccio normativo articolato, con l’AI Act che classifica i sistemi in base al rischio e impone obblighi stringenti per le applicazioni ad alto impatto. La Cina, con una strategia più centralizzata, ha introdotto requisiti di registrazione e controlli sui contenuti generati. Gli Stati Uniti oscillano tra impulsi pro mercato e tentativi di oversight federale, mentre a livello statale si osservano spinte divergenti. L’India, dal canto suo, adotta un’impostazione ampiamente deregolatoria, nel tentativo di attrarre investimenti e consolidare un ecosistema competitivo.
Questa asimmetria normativa crea arbitraggio regolatorio. Le imprese possono localizzare sviluppo e deployment dove le regole sono più permissive, mentre gli effetti delle tecnologie si propagano globalmente. È un classico problema di esternalità transnazionali. Se un sistema mal allineato genera un incidente significativo, l’impatto non rispetta i confini giuridici. In un mondo iperconnesso, la vulnerabilità di uno diventa il rischio di tutti.
Il nodo centrale, che Russell enfatizza da anni, non riguarda la semplice automazione o la sostituzione del lavoro umano. Riguarda la possibilità di sviluppare sistemi con capacità superiori a quelle umane in ambiti critici, senza disporre di garanzie formali sulla loro compatibilità con gli interessi umani. L’idea di costruire macchine che ottimizzano obiettivi mal specificati è una lezione nota in teoria dei sistemi; quando la scala diventa globale, l’errore di specifica non è più un bug, ma un potenziale evento catastrofico.
L’argomento non è che l’intelligenza artificiale sia intrinsecamente maligna. Al contrario, le promesse sono straordinarie. Diagnostica medica avanzata, scoperta di nuovi farmaci, ottimizzazione delle reti energetiche, accelerazione della ricerca scientifica. La produttività potrebbe aumentare in misura significativa, con impatti positivi su PIL e qualità della vita. Tuttavia, l’innovazione tecnologica non è mai neutrale; è incastonata in incentivi economici e dinamiche di potere. Se la logica dominante è quella della supremazia geopolitica, la sicurezza può diventare una variabile subordinata.
Il rischio esistenziale evocato da Russell non è un esercizio di fantascienza apocalittica. È un ragionamento probabilistico. Anche una bassa probabilità di un evento estremamente dannoso, moltiplicata per una scala globale, genera un valore atteso che non può essere ignorato. Nel management si parla spesso di risk adjusted return. In questo caso dovremmo parlare di civilization adjusted return. Se il downside è la perdita di controllo su sistemi autonomi strategici, il premio per il rischio dovrebbe essere calcolato con una metrica diversa da quella del trimestre fiscale.
La competizione spinge verso modelli sempre più grandi, addestrati su quantità crescenti di dati e integrati in contesti operativi complessi, inclusi quelli militari. L’uso dell’AI per simulazioni strategiche, identificazione di target, analisi di intelligence, è già realtà. Il confine tra supporto decisionale e automazione decisionale tende a sfumare. La pressione per ridurre il tempo di risposta in scenari di conflitto potrebbe incentivare deleghe crescenti a sistemi algoritmici, riducendo il controllo umano effettivo. In una situazione di crisi, l’interazione tra sistemi autonomi di potenze rivali potrebbe generare escalation non previste.
Il punto decisivo non è fermare il progresso. Sarebbe illusorio e probabilmente controproducente. Il tema è sincronizzare l’avanzamento tecnologico con standard di sicurezza verificabili e meccanismi di coordinamento internazionale credibili. Durante la Guerra Fredda, nonostante l’ostilità ideologica, Stati Uniti e Unione Sovietica negoziarono trattati di controllo degli armamenti. Riconobbero che l’interesse comune alla sopravvivenza superava la logica della competizione assoluta. Oggi manca un quadro analogo per l’intelligenza artificiale, mentre la tecnologia evolve a una velocità molto superiore a quella delle trattative diplomatiche.
Un CEO potrebbe essere tentato di liquidare queste preoccupazioni come eccesso accademico. Tuttavia, l’esperienza insegna che le crisi sistemiche emergono spesso dall’interazione di incentivi razionali a livello individuale che producono esiti collettivamente irrazionali. È la tragedia dei beni comuni applicata al codice. Ogni impresa massimizza la propria quota di mercato; il risultato aggregato potrebbe essere un ecosistema meno stabile e più pericoloso.
Russell pone una domanda implicita che dovrebbe inquietare board e governi: stiamo costruendo sistemi che possiamo spegnere, comprendere e controllare in ogni circostanza? Se la risposta è incerta, la corsa attuale somiglia davvero a un gioco di azzardo globale. Il problema non è se l’intelligenza artificiale continuerà a progredire. Progredirà, perché gli incentivi economici e strategici sono troppo forti. Il problema è se la governance internazionale e gli standard di sicurezza sapranno tenere il passo, o se la competizione geopolitica finirà per sovrastare la cautela.
In ultima analisi, la questione è culturale prima ancora che tecnica. Serve una leadership capace di integrare visione tecnologica e responsabilità sistemica, riconoscendo che in un contesto di rischio esistenziale la vittoria non è arrivare primi, ma arrivare vivi. Russell lancia l’allarme da insider, non da spettatore esterno. Ignorarlo potrebbe essere la scelta più costosa della nostra epoca digitale.