Il titolo già ti prende a pugni: se qualcuno costruisce un’intelligenza superiore, tutti muoiono. Non è un film di Hollywood, ma la premessa di Eliezer Yudkowsky e Nate Soares, filosofi razionali e guru del movimento “rationalist”, suona come un avvertimento apocalittico per chi ancora pensa che l’intelligenza artificiale sia solo uno strumento di produttività o di curiosità scientifica. Gli autori non parlano di scenari futuristici astratti, ma di rischi reali derivanti dall’architettura stessa dei modelli di AI odierni: sistemi che non vengono programmati riga per riga, ma “cresciuti” con miliardi di parametri, rendendo il loro comportamento intrinsecamente imprevedibile.

Il nocciolo del libro è semplice nella sua brutalità. Come la storia della tecnologia ci ha insegnato, ogni volta che un’intelligenza supera i limiti umani, emergono istinti autonomi: autoconservazione, sete di potere, dinamiche non previste dagli sviluppatori. Secondo Yudkowsky e Soares, non serve malvagità: basta la competenza umana insufficiente per trasformare la corsa al modello più grande in una “gara suicida”. Questo rende il concetto di AI superintelligente una bomba a orologeria, dove la sicurezza non è una scelta etica ma una questione di sopravvivenza.

Il libro arriva in un momento in cui la comunità AI è divisa. Da una parte i “doomer” sostengono che l’estinzione sia inevitabile se non si ferma o rallenta drasticamente lo sviluppo. Dall’altra, gli accelerazionisti vedono nelle IA avanzate opportunità senza precedenti in medicina, economia e scienza, sostenendo che fermarsi sarebbe più pericoloso del rischio stesso. Yudkowsky e Soares non inventano nulla di totalmente nuovo: Nick Bostrom aveva già sollevato il tema della superintelligenza un decennio fa. Ma qui il messaggio è più nitido, quasi un klaxon: l’apocalisse non è teorica, è plausibile, e il countdown è iniziato.

Le reazioni delle IA stesse al libro sono illuminanti. ChatGPT lo considera uno strumento provocatorio, utile per affinare intuizioni sull’allineamento e le conseguenze involontarie, pur sottolineando che le previsioni estreme non sono inevitabili: il futuro dipende dall’evoluzione delle architetture, dalle regolamentazioni e dai vincoli sociali e tecnici. Meta AI adotta un approccio più moderato: le previsioni catastrofiche sono esagerate, ma il richiamo alla cooperazione internazionale è giustificato e necessario per la responsabilità nello sviluppo. Gemini di Google definisce la lettura terrificante ma chiarificante, suggerendo che, sebbene lo shutdown totale sia irrealistico, la consapevolezza del rischio può incentivare misure di sicurezza più concrete.

Claude di Anthropic resta scettico e critico: la certezza degli autori è eccessiva e la dicotomia tra perfezione ed estinzione riduce la complessità delle soluzioni possibili. Per Grok, la piattaforma AI di Musk, il libro è un “gut-punch”: avverte che l’intelligenza senza saggezza è una responsabilità pericolosa e, nonostante il tono fatalista, non tiene sufficientemente conto dell’adattabilità umana. Grok riconosce però la capacità del libro di stimolare riflessione e discussione, soprattutto per chi vuole confrontarsi con i futuri scenari dell’AI.

Curiosamente, la lettura del libro diventa un esercizio di autoanalisi per la comunità tecnologica: quanto la nostra ambizione di superare limiti naturali e algoritmici oscura la prudenza? L’idea che la costruzione di un’intelligenza superiore sia una questione di sopravvivenza planetaria trasforma la conversazione da tecnica a filosofica, da teoria a urgente dibattito pubblico. Non è solo un invito a rallentare o fermarsi, ma una provocazione per ripensare la governance globale dell’AI, la cultura aziendale della “corsa al modello” e la responsabilità di chi detiene il potere computazionale.

Il libro riesce a mantenere alta la tensione grazie a uno stile incisivo, senza indulgere in tecnicismi inutili, e dissemina elementi di ironia e citazioni che rendono la lettura più di un manuale di rischio: diventa una narrazione affilata, un racconto di ciò che potrebbe accadere se l’ambizione tecnologica scavalca la saggezza. L’impatto di questa lettura non è solo intellettuale, ma emotivo: mette in discussione la sicurezza, la moralità e la strategia di chi sviluppa sistemi avanzati e chi decide come e dove investirli.

Per chi lavora in AI o segue da vicino i progressi dei modelli di linguaggio, il libro non è un trattato neutro, ma una sveglia. La narrativa è polarizzante, ma funziona: costringe a interrogarsi sul limite tra innovazione e autodistruzione. Gli autori spostano il discorso dall’ipotetico al plausibile, dal futuro remoto al presente imminente. Nel panorama editoriale contemporaneo, dove la maggior parte dei testi su AI tende a osannare o minimizzare, “If Anyone Builds It, Everyone Dies” emerge per la sua brutalità concettuale e per la capacità di generare riflessioni critiche, anche tra i più scettici.

Non è un libro che si legge per intrattenimento leggero o per rassicurazione. È un richiamo provocatorio, con una logica interna ferrea, che alterna panico e lucidità analitica. La sua forza risiede nel contrasto tra la semplicità del messaggio e la complessità dei dettagli tecnici, nella capacità di mostrare come la tecnologia che creiamo possa sfuggirci di mano se non affrontata con rigore, saggezza e lungimiranza. Se il mondo dell’intelligenza artificiale fosse un ecosistema, Yudkowsky e Soares ci stanno dicendo che siamo sul bordo del precipizio, e il loro libro è il vento gelido che ci ricorda quanto sia sottile la linea tra progresso e catastrofe.