Febbraio 2023. Bletchley Park. Il luogo simbolo della crittografia bellica diventa improvvisamente il tempio laico della paura algoritmica. Per la prima volta Stati Uniti, Cina, Unione Europea e una manciata di altri Paesi si guardano negli occhi e ammettono l’impensabile. L’intelligenza artificiale avanzata potrebbe sfuggire di mano. Non domani, forse. Ma abbastanza presto da rendere irresponsabile fingere il contrario. Nasce l’AI Safety Summit. Pochi temi, molto chiari. Perdita di controllo, rischi esistenziali, cooperazione minima tra rivali strategici. Non è romanticismo multilaterale, è realpolitik computazionale. E funziona. Una dichiarazione congiunta, impegni espliciti, un lessico comune. Nel mondo della governance tecnologica, un miracolo.
Primavera 2024. Seul. Il secondo atto non rovina il primo. Anzi. Il summit coreano prova a trasformare l’ansia in procedura. Test di sicurezza sui modelli di frontiera, valutazioni condivise, responsabilità dichiarate per chi sviluppa sistemi che nessuno, in realtà, comprende fino in fondo. È ancora un club ristretto, volutamente elitario. Chi costruisce l’AI più potente siede al tavolo. Chi no, osserva. Cinico ma logico. In questa fase la sicurezza non è democratica, è tecnica. E la tecnica non ama le assemblee plenarie.
Febbraio 2025. Parigi. Qui qualcosa si rompe. Emmanuel Macron decide che la sicurezza è un freno narrativo. Meglio parlare di crescita, competitività, accelerazione. L’AI Action Summit diventa una vetrina, una fiera elegante dove la parola rischio viene pronunciata sottovoce, quasi con imbarazzo. Il messaggio implicito è chiaro. L’Europa non guida lo sviluppo dell’intelligenza artificiale, quindi tanto vale non rallentarlo. È l’equivalente geopolitico del sorriso forzato davanti a un treno che passa troppo veloce. Il percorso iniziato a Bletchley perde fuoco, perde disciplina, perde direzione.
Febbraio 2026. Nuova Delhi. L’India prende il testimone e prova a fare l’opposto di Parigi senza tornare davvero a Bletchley. L’AI Impact Summit nasce con una missione dichiarata che suona nobile e allo stesso tempo pericolosamente vaga. Empowerment, innovazione, sviluppo economico, bene sociale, accesso al calcolo, democratizzazione dei dati, governance globale, sicurezza. Tutto. Subito. Per tutti. È qui che il vertice indiano mostra il suo vero volto. Non quello di un summit fallito, ma di un summit che vuole essere troppe cose contemporaneamente.
La timeline racconta una storia precisa. Ogni summit aggiunge un layer, ma nessuno rimuove quello precedente. Il risultato non è una sintesi, è un accumulo. Sette chakra tematici, una metafora spirituale applicata a un problema ingegneristico. Resilienza, capitale umano, innovazione, sviluppo, affidabilità. Concetti giusti, certo. Ma messi insieme producono rumore più che segnale. La sicurezza dell’intelligenza artificiale, che era il cuore pulsante del processo, diventa una voce nel menu degustazione. Presente, ma non centrale. Importante, ma non prioritaria.
Abhishek Singh, architetto politico del summit, respinge le critiche. Dal suo punto di vista il programma è completo, inclusivo, necessario. E ha ragione, se l’obiettivo è posizionare l’India come hub globale dei servizi AI e come portavoce del Sud del mondo. Ha torto, se l’obiettivo è governare sistemi che OpenAI e Anthropic dichiarano apertamente di non saper più controllare del tutto. Le due cose non sono incompatibili in teoria. Nella pratica, competono per attenzione, tempo, capitale politico.
Nel frattempo il mondo non aspetta. Tra il 2023 e il 2026 i modelli di frontiera hanno superato soglie che fino a poco prima erano considerate speculative. Autonomia operativa, capacità di scrivere codice complesso, interazione strategica con altri sistemi. La narrativa rassicurante della riqualificazione del lavoro inizia a suonare come un dépliant di una compagnia aerea durante una turbolenza. Tecnica corretta, emotivamente irrilevante. Se l’automazione accelera davvero, la formazione non basta. Servono politiche industriali, redistribuzione, nuove architetture sociali. Di questo, a Delhi, si parla poco. Troppo poco.
C’è però un elemento nuovo, e non va sottovalutato. Il coinvolgimento del Sud del mondo. Non come comparsa folkloristica, ma come soggetto politico che rivendica voce. Per anni la sicurezza dell’AI è stata discussa da Paesi che possiedono data center, chip avanzati e capitali quasi illimitati. Il resto del mondo osservava, subiva, implementava. L’India prova a ribaltare la dinamica, o almeno a complicarla. Includere Africa, America Latina, Sud-est asiatico nel dibattito non è solo una questione morale. È una questione di legittimità futura. Una governance percepita come club occidentale è destinata a fallire.
Il paradosso è evidente. Più inclusione significa meno capacità decisionale. Più voci significa meno accordi vincolanti. Lucia Velasco lo dice con eleganza accademica, ma il messaggio è brutale. Non ha senso discutere nel dettaglio dei comportamenti anomali di un modello di frontiera con Paesi che non partecipano alla sua costruzione. Serve un doppio binario. Un nucleo ristretto che governa l’AI avanzata, e un foro più ampio che discute impatti sociali, accesso, sviluppo. Bletchley e Seul erano il primo binario. Parigi e Delhi stanno scivolando nel secondo.
Eppure, interrompere la serie sarebbe peggio. Qui la timeline diventa quasi cinica. La semplice esistenza di un forum continuo crea una memoria istituzionale. Un luogo dove, se e quando qualcosa andrà storto davvero, qualcuno potrà dire. Ci siamo già parlati. Ci siamo già visti. Sappiamo chi chiamare. È una soglia minima, deprimente forse, ma reale. Nel mondo della governance globale, l’inerzia organizzata è spesso l’unica infrastruttura disponibile quando arriva la crisi.
Il summit indiano non produrrà dichiarazioni storiche. Non definirà standard tecnici vincolanti. Non fermerà la corsa all’AGI. Ma racconta, se letto lungo una timeline coerente, lo stato mentale del pianeta di fronte all’intelligenza artificiale. Siamo passati dalla paura lucida alla dispersione narrativa. Dalla concentrazione strategica al desiderio di accontentare tutti. È il segno di una tecnologia che ha superato la fase emergenziale senza entrare davvero in quella della governance matura.
Forse tra qualche anno guarderemo a Delhi come a un passaggio interlocutorio, un momento di transizione. O forse come all’istante in cui abbiamo deciso che parlare di tutto era più facile che decidere qualcosa. Nel frattempo i modelli continuano a migliorare, i data center a crescere, le asimmetrie geopolitiche ad allargarsi. La timeline non aspetta i summit. Li attraversa. E li giudica dopo.