Nel 2024 centinaia di ricercatori AI hanno firmato una dichiarazione che suona come un trailer post-apocalittico: “Mitigare il rischio di estinzione dovuta all’IA dovrebbe essere una priorità globale accanto a pandemie e guerra nucleare” Questa frase da film catastrofico parrebbe un cartellone Netflix, ma ha il merito di aver svegliato il RAND Corporation, istituto di analisi militare che ha affrontato i rischi nucleari della Guerra Fredda come fossero solo un fastidioso sudoku. Il risultato? Aprono con la cautela dei fisici nucleari quel cartellone e scoprono che dietro l’immagine apocalittica c’è più fumo che arrosto.