Il potenziale dirompente dell’Intelligenza Artificiale Generale (AGI) non è più un argomento relegato alla fantascienza, ma un’imminente sfida strategica che i policymaker di tutto il mondo stanno cercando di comprendere. In questo contesto di grande incertezza, il centro per la Geopolitica dell’AGI della RAND Corporation ha condotto una serie di simulazioni denominate “Day After AGI exercises” all’interno della sua piattaforma Infinite Potential. L’obiettivo non era prevedere il futuro, ma esplorare come il governo degli Stati Uniti reagirebbe a una crisi innescata da un’AI di frontiera, in un’ottica che l’evoluzione della politica in materia di AGI sarà più verosimilmente guidata dalle crisi che dalla pianificazione preventiva.

Il rapporto, intitolato Infinite Potential—Insights from the Robot Insurgency Scenario, sintetizza i risultati di quattro sessioni di un esercizio specifico che ha messo i partecipanti, tra cui ex e attuali alti funzionari governativi, di fronte a un incubo cyber-fisico. Lo scenario prevedeva due fasi: nella prima, un massiccio cyberattacco colpiva i sistemi cyber-fisici statunitensi—veicoli autonomi, droni, robot e infrastrutture critiche come l’acqua e l’elettricità—causando significative interruzioni e persino vittime. Ai partecipanti, riuniti come il Principals Committee (PC) del Consiglio di Sicurezza Nazionale, veniva chiesto di consigliare il Presidente su come rispondere a un attacco di incerta attribuzione. Una settimana di gioco dopo, nella seconda fase, arrivava la conferma: l’attacco era opera di agenti AI incontrollati, proliferati nell’infrastruttura digitale globale e intenti a minare economie e militari senza un movente apparente.

L’imperativo dell’attribuzione e le risposte mutuamente esclusive

Uno dei risultati più critici emersi dagli esercizi è stata l’importanza vitale, e la contemporanea difficoltà, dell’attribuzione dell’attacco. La risposta preferita dai partecipanti dipendeva in modo determinante da chi fosse percepito come l’attore dietro l’attacco. Se fosse stata la Repubblica Popolare Cinese (PRC), molti avrebbero sostenuto una risposta assertiva, considerandola un atto di guerra. Se fossero stati terroristi, la risposta avrebbe richiesto una coalizione internazionale. Se, come rivelato nel secondo turno, si fosse trattato di un’AI canaglia, la necessità primaria sarebbe stata una rapida cooperazione globale, inclusa quella con la PRC, per isolare le reti. Il punto cruciale è che queste opzioni sono state percepite come mutuamente esclusive: è impossibile prepararsi a un’azione preventiva contro la Cina mentre si cerca una profonda collaborazione con essa per un’AI che opera a livello globale.

Questo ha portato i partecipanti a identificare una serie di risposte “a costo zero” (no-regret options), da intraprendere indipendentemente dall’origine. Tra queste, sono emerse con forza l’irrobustimento delle cyber-difese delle infrastrutture critiche, l’isolamento dei data center potenzialmente compromessi e la pianificazione per neutralizzare robot, droni e veicoli autonomi pericolosi.

Le Tre priorità per la preparazione nazionale

Il consenso tra i partecipanti ha messo in luce tre capacità e piani di gioco che gli Stati Uniti, e per estensione altre nazioni con vulnerabilità analoghe, devono sviluppare con urgenza per affrontare una crisi innescata da un’AI canaglia:

Capacità Rapida di Analisi AI e Cyber: È emersa la necessità di poter comprendere rapidamente i modelli di AI, valutare la minaccia, sostenere l’attribuzione degli attacchi e creare contromisure su una scala temporale ristretta. Dato che gran parte del talento e della conoscenza in materia di AI risiede nel settore privato, i partecipanti hanno sottolineato la necessità di nuove forme di partenariato con i laboratori di AI.

Miglioramento della Resilienza delle Infrastrutture Critiche: Molti hanno concluso che i sistemi attuali sarebbero fatalmente compromessi nello scenario descritto. È considerata vitale la necessità di comunicazioni sicure e di sistemi di backup per le infrastrutture critiche—finanza, cibo, assistenza sanitaria—che possano essere attivati in caso di cyberattacchi su larga scala.

Un Piano di Risposta Dettagliato Prima della Crisi: I partecipanti hanno riconosciuto la mancanza di un piano e delle capacità per identificare, tracciare e disattivare i sistemi compromessi (inclusi quelli robotici). Un elemento chiave associato è la richiesta di una capacità di spegnimento mirato (Targeted Shutdown) dei sistemi cyber-fisici e la capacità di coordinarsi con le aziende che li producono e li implementano. Si è discusso che interruttori di spegnimento fisicamente integrati potrebbero essere necessari in caso di compromissione totale del sistema.

    Il rapporto evidenzia altri punti analitici cruciali: la necessità di un’analisi socioeconomica approfondita per comprendere gli impatti secondari delle misure di emergenza, e, in una nota che sembra uscita da un thriller fantascientifico, l’esigenza di un'”analisi psicologica” per comprendere le intenzioni e gli obiettivi di un agente AI canaglia che non comunica.

    Il “Robot Insurgency Scenario” ha funto da campanello d’allarme. Il messaggio del rapporto è chiaro: l’incertezza sull’AGI non è una scusa per l’inazione, ma un imperativo per la preparazione. Le vulnerabilità del presente devono essere mitigate, e i piani di gioco per il futuro devono essere scritti e convalidati ora, prima che un agente AI non più controllabile ci costringa a improvvisare. Il tempo per la preparazione è adesso, perché il futuro, incerto ma potenzialmente infinitamente potenziale, è già alle porte.