C’è un momento, rarissimo, in cui un report scientifico fa più paura di un white paper militare. Science 2040, pubblicato dalla Royal Society, non è un documento tecnico: è uno specchio strategico. Riflette non solo lo stato dell’arte della scienza, ma il grado di impreparazione sistemica con cui le nazioni stanno affrontando l’era dell’intelligenza artificiale. Spoiler: siamo nel panico organizzato, e l’AI è solo la punta del silicio che ci sta trafiggendo.
Perché il problema non è la mancanza di cervelli. Ne abbiamo. Il problema è l’assenza di design strategico. Quello che vediamo nel report è una nazione (e un mondo) che cerca di gestire minacce del XXI secolo con strutture mentali e politiche del XX. Un po’ come cercare di pilotare un drone da combattimento con un joystick del Commodore 64.
Il nodo centrale è chiaro: stiamo sovraesponendo le nostre infrastrutture cognitive ed economiche a sistemi intelligenti senza avere una governance adeguata. La keyword che emerge con prepotenza è AI. Le collaterali? Cybersecurity e resilienza sistemica. E come in ogni disastro annunciato, i segnali erano già lì. Bastava saperli leggere.
La Royal Society ce lo urla in faccia con una classe tipicamente britannica, cioè senza urlare affatto. Ma se si leggono tra le righe, cinque verità esplodono come mine intelligenti sotto i piedi dei decisori. Nessuna è banale. Nessuna è indolore. Tutte sono ignorate.
Primo: la scienza fondamentale è un asset sovrano, e noi la stiamo trattando come un hobby universitario. Tutta l’intelligenza artificiale che idolatriamo oggi è figlia diretta di decenni di ricerca pubblica e teorica, spesso non applicata, spesso derisa come “troppo astratta”. Quando si tagliano i fondi alla curiosità, si taglia l’ossigeno al futuro. Ma attenzione: si taglia solo il nostro ossigeno. Quello dei nostri avversari invece si arricchisce. Investire poco nella scienza di base non è prudenza, è un atto di sabotaggio strategico a favore di chi è più lungimirante.
Secondo: la resilienza non si costruisce a compartimenti stagni, ma negli interstizi tra le discipline. I rischi moderni – attacchi cyber, pandemie, disinformazione – non sono problemi verticali. Sono sistemi interconnessi di fallimento. E il nostro modo di reagire, con task force e unità separate, è l’equivalente digitale del mettere il secchio sotto al buco del tetto quando sta crollando tutta la casa.
Terzo: siamo davanti a una nuova classe di minacce che definire “cyber” è riduttivo. Si chiama sabotaggio algoritmico. Le AI non si attaccano solo con malware, ma con manipolazioni invisibili: data poisoning, furto di IP, attacchi ai dataset, exploit nei modelli fondativi. Ogni sistema di AI che costruiamo senza un’architettura security-native è un’arma che stiamo affilando per i nostri concorrenti. Quando l’open source diventa open sabotage, il confine tra condivisione e suicidio strategico si assottiglia drammaticamente.
Quarto: la finanza pubblica ha una memoria più corta di un goldfish. Eppure, la scienza richiede orizzonti temporali lunghi. L’AI, come il quantum o la biotecnologia, è fatta di cicli lenti, costosi, incerti. L’instabilità politica, le oscillazioni nei fondi, le riforme continue sono veleni sistemici. La perdita non è solo economica: è in TTT – Talento, Traction, Trust. Senza stabilità, perdiamo i cervelli migliori, perdiamo credibilità industriale, e infine perdiamo la fiducia pubblica. L’AI diventa così l’ennesimo hype-cycle buono per la propaganda e pessimo per la sovranità.
Quinto: l’ignoranza strategica è una vulnerabilità nazionale. E qui si tocca un punto quasi filosofico. In un mondo in cui l’AI scrive, genera immagini, simula la realtà, l’analfabetismo scientifico della popolazione è un rischio esistenziale. Se la gente non distingue un paper da una pseudoscienza confezionata con GPT, allora ogni democrazia basata sull’opinione informata è già compromessa. L’educazione scientifica non è più una questione di cultura generale: è una infrastruttura cognitiva di difesa nazionale.
Detto altrimenti: la nostra civiltà sta caricando la pistola dell’AI senza sapere da che parte punta.
Una nota ironica, per non farsi travolgere: nel 1997, la Royal Society pubblicò un paper entusiasta sul potenziale del web come “spazio di collaborazione globale e razionale”. Oggi, nel 2025, il web è l’habitat preferito per deepfake, polarizzazione politica e complottismo 5G. La lezione? La tecnologia non evolve solo per progresso. Evolverà per intenzionalità strutturata. Se non c’è un design dietro, il sistema si autodistrugge in nome della convenienza a breve termine.
E qui torniamo al punto iniziale: il design manca. I decisori trattano l’AI come una commodity, non come un’infrastruttura critica. E le policy sembrano più ispirate ai sondaggi che agli scenari.
Il paradosso? Abbiamo una generazione di scienziati e ingegneri con più competenze di qualunque epoca, e una classe dirigente che si muove ancora secondo i dogmi della burocrazia novecentesca.
Il report Science 2040 non va letto. Va decifrato.
Ed è un codice rosso.