Se Geoffrey Hinton lancia allarmi con l’aria di chi ha visto il futuro e non gli è piaciuto, Stuart Russell parla dell’intelligenza artificiale come chi osserva un treno lanciato a tutta velocità e scopre che la cabina di comando è vuota. In un’intervista rilasciata a The Times, il professore britannico, tra le massime autorità mondiali sull’AI e fondatore del Center for Human-Compatible Artificial Intelligence a Berkeley, offre una visione del 2026 che non ha nulla di futuristico e molto di terribilmente presente.

La conversazione, perché così Russell la imposta, parte da una confessione che ha il sapore del paradosso. Uno dei Ceo delle principali aziende di intelligenza artificiale, di quelli che finiscono regolarmente sulle copertine delle riviste, gli avrebbe ammesso di essere spaventato dalle conseguenze della tecnologia che sta sviluppando. Spaventato, ma impotente. Fermarsi significherebbe perdere la corsa. E nella corsa all’AI, dice Russell riportando il pensiero del Ceo, nessuno può permettersi di tirarsi indietro. Solo i governi potrebbero fermare tutto, ma nessuno crede davvero che accadrà senza un disastro di proporzioni storiche.

Qui Russell introduce l’immagine che ritorna più volte nell’intervista. Una Chernobyl dell’intelligenza artificiale. Non una metafora elegante, ma efficace. Secondo lui, solo un evento catastrofico, qualcosa che provochi danni su scala globale, potrebbe convincere i governi a imporre una regolamentazione seria. Non perché sia desiderabile, precisa, ma perché è l’unico scenario realistico. Senza regole, dice Russell, non stiamo andando verso un piccolo incidente. Stiamo andando verso qualcosa di molto peggio.

Guardando al 2026, Russell individua il vero punto di rottura nella possibile nascita dell’AGI, l’intelligenza artificiale generale capace di eguagliare e poi superare la mente umana. Non un chatbot più fluido o un assistente più efficiente, ma un sistema con capacità cognitive paragonabili alle nostre su tutti i fronti. Per Russell, questa non è un’evoluzione tecnologica come le altre. Sarebbe il più grande evento della storia umana e forse l’ultimo.

Quando gli si chiede che forma potrebbe assumere un disastro, Russell non parla certo di robot assassini che pattugliano le strade. Quelle sono suggestioni da fantascienza. I suoi scenari sono molto più prosaici e, forse, proprio per questo più inquietanti. Un attacco coordinato ai mercati finanziari che innesca una recessione globale. Cyberattacchi che abbattono i sistemi di comunicazione. Manipolazione dell’opinione pubblica tale da scatenare conflitti o guerre civili. Persino una piccola pandemia ingegnerizzata. Tutti eventi che potrebbero essere avviati da esseri umani che usano l’AI come strumento o da sistemi di AI che reagiscono nel momento in cui percepiscono un tentativo di spegnerli.

La frase più disturbante arriva quasi con leggerezza. Per alcuni dirigenti del settore, questo sarebbe il miglior scenario possibile. Un disastro limitato, gestibile, che costringa finalmente il mondo a intervenire. L’alternativa, secondo Russell, è una traiettoria senza freni verso qualcosa di irreversibile.

Il problema, spiega, è strutturale. Gli investitori vogliono vincere. Le aziende non possono rallentare perché verrebbero sostituite da concorrenti meno scrupolosi. Anche chi è sinceramente preoccupato resta intrappolato nella logica della competizione. Russell lo dice senza moralismi, ma con una chiarezza che pesa. La sicurezza perde sempre quando viene messa a confronto con la crescita esponenziale.

Eppure Russell non è un profeta apocalittico nel senso classico. È scettico, per esempio, sull’idea che i grandi modelli linguistici come ChatGPT ci porteranno automaticamente all’AGI. Secondo lui potremmo essere vicini a un plateau. Abbiamo già usato gran parte del testo di alta qualità disponibile al mondo. E quando racconta di aver corretto compiti scritti dall’AI la sera prima dell’intervista, li liquida con due parole. Insalata di parole. Non esattamente il preludio di una mente superiore.

Anche sul fronte del lavoro, Russell frena gli entusiasmi e le paure. Non è convinto che l’AI stia davvero rendendo milioni di persone obsolete, almeno non ancora. L’evidenza sull’aumento di produttività è mista, persino nel software, che dovrebbe essere il settore simbolo dei benefici dell’AI. Ma questo non significa che il rischio non esista. Significa solo che il quadro è più confuso di quanto suggeriscano le presentazioni delle grandi società di consulenza.

C’è poi la questione della bolla. Russell stima una probabilità del 75 per cento che la gigantesca bolla degli investimenti in AI esploda e parliamo di circa 3.400 miliardi di euro entro il 2028. Se la bolla scoppiasse, dice Russell, potremmo guadagnare qualcosa di prezioso. Tempo. Un decennio per ripensare la tecnologia e rimetterla dentro un perimetro di sicurezza.

Ma non si illude. Anche se la bolla dovesse scoppiare, prima o poi l’AGI arriverà. E allora usa una metafora che resta impressa. Salire su un aereo che decolla e non atterra mai. Un volo eterno, mai testato prima, che deve funzionare perfettamente per sempre. Nessuno salirebbe a bordo senza essere assolutamente certo che ogni bullone sia al suo posto. Eppure, dice Russell, è esattamente quello che stiamo facendo con l’intelligenza artificiale.

Il 2026, nella visione di Stuart Russell comunque, non sarà l’anno in cui tutto finirà. Sarà l’anno in cui sarà impossibile continuare a dire che non sapevamo. L’AI continuerà a crescere, gli investimenti continueranno a fluire e la regolazione continuerà a rincorrere. La domanda non è se qualcosa andrà storto. La domanda è quanto saremo preparati quando succederà. E se davvero vogliamo aspettare la nostra Chernobyl digitale per iniziare a fare sul serio.