Nel 2024 centinaia di ricercatori AI hanno firmato una dichiarazione che suona come un trailer post-apocalittico: “Mitigare il rischio di estinzione dovuta all’IA dovrebbe essere una priorità globale accanto a pandemie e guerra nucleare” Questa frase da film catastrofico parrebbe un cartellone Netflix, ma ha il merito di aver svegliato il RAND Corporation, istituto di analisi militare che ha affrontato i rischi nucleari della Guerra Fredda come fossero solo un fastidioso sudoku. Il risultato? Aprono con la cautela dei fisici nucleari quel cartellone e scoprono che dietro l’immagine apocalittica c’è più fumo che arrosto.
Il team guidato da Michael J. D. Vermeer ha preso sul serio la domanda: “L’IA può sterminarci tutti?” — e l’ha affrontata con rigore (e un pizzico di cinismo scientifico). Il punto di partenza era lo scetticismo: vogliono provare di essere nel torto (RAND CorporationScientific American). Usano un approccio da analisi di rischio nazionale, modellano scenari con guerra nucleare, bioterrorismo potenziato, geoingegneria letale e fanno wargame come se l’apocalisse fosse un gioco da tavolo. Il verdetto è netto quanto clinico: l’estinzione ad opera dell’IA da sola è estremamente difficile, non è esclusa ma ha bisogno di un cocktail micidiale di capacità, intenzioni e circostanze improbabili.
Il guaio? L’IA non ha un “pulsante estinzione” incorporato. Per rendersi pericolosa nel senso più estremo, dovrebbe controllare sistemi cyber-fisici strategici, sopravvivere senza manutenzione, volere attivamente sterminarci, e ingannarci per non venire scoperta. Applicando la logica RAND-style, perfino un’IA che lanciasse tutti i testate nucleari del pianeta non centrare sarebbe l’estinzione totale: la nostra specie è resistente, dispersa, e capace di ricostruire . Il bioterrorismo è più credibile—un patogeno ultraletale disegnato dall’IA potrebbe uccidere miliardi—ma raggiungere ogni fessura sociale e inglobare comunità isolate richiederebbe precisone logistica quasi fantascientifica. Quanto alla geoingegneria? Anche buttare in atmosfera gas super-riscaldanti richiederebbe risorse umane e fisiche massicce, nonché tempo per materializzars.
Ecco la prima parola chiave SEO: “rischio estinzione AI”. Ne emerge un quadro paradossale: il rischio di estinzione da IA è possibile ma indiretto, lento, mediato. Mentre pandemie e guerra nucleare restano rischi più immediati, l’IA appare più come un amplificatore di scenari già pericolosi, piuttosto che un autenticatore della fine umana.
Il punto davvero provocatorio è questo: il panico da “IA deve per forza ucciderci tutti” funziona più come clickbait che come politica di sicurezza. Se lo scenario estremo fosse plausibile—verrebbe mobilitata la diplomazia, i trattati internazionali, le chat di emergenza del G20—ma RAND mostra che non è così semplice. Il guaio serio è quando l’IA destabilizza sistemi critici o aiuta malintenzionati a farlo.
Serve governance, ma una governance che guardi oltre lo spavento, che costruisca resilienza: politiche per la non proliferazione nucleare, preparazione alle pandemie, accordi ambientali come i trattati Montreal o Kigali applicati al contesto AI. Se l’IA non ci stermina direttamente, può spingerci sull’orlo di altri precipizi, e solo una resilienza integrata ci salverà.
Ironia finale sparata a freddo, ma con stile da CEO tecnologico: chi avrebbe mai detto che la salvezza dall’Apocalisse digitale non arriverà da un antivirus ultra-potente, ma da quell’antico strumento chiamato “governance internazionale che non dorme”? Eppure è così: niente robot assassini che bussano alla porta, ma complicazioni geopolitiche sottili che rischiano di farci inciampare nel vuoto.
Fonti essenziali per chi vuole approfondire (non formali, ma preziose come l’economia globale):
- Rapporto RAND “On the Extinction Risk from Artificial Intelligence”, maggio 2025, che analizza scenari nucleari, pandemici e di geoingegneria RAND Corporation
- Editoriale su Scientific American di Vermeer: “Could This Truly Happen?” rafforza la radice scettica iniziale Scientific American
- Analisi media come ConsumerAffairs: l’IA sterminista resta un’ipotesi remota ma richiede prudenza ConsumerAffairs