Quando Warren Buffett paragona l’intelligenza artificiale all’era nucleare, non sta cercando un titolo da giornale o una provocazione da conferenza. Sta usando l’unica analogia che, nel suo vocabolario di investitore razionale e paziente, segnala un rischio sistemico fuori scala. Non una bolla. Non una disruption. Ma qualcosa che cambia la struttura del mondo, lasciando intatto un dettaglio inquietante: il modo in cui gli esseri umani pensano, decidono e competono resta drammaticamente inadatto.

L’intelligenza artificiale come keyword principale non è più un tema da convegno per entusiasti o da slide per venture capitalist. È un problema di civiltà. Buffett lo dice con la calma di chi ha visto passare guerre fredde, crisi finanziarie e rivoluzioni tecnologiche senza mai perdere il sonno. Proprio per questo, quando parla di punto di non ritorno, conviene ascoltare. Il suo messaggio è disarmante nella sua semplicità. L’AI è già fuori controllo non perché sia malvagia, ma perché è ormai ovunque, incorporata nei sistemi economici, militari, informativi e cognitivi. E come ogni tecnologia che promette vantaggi asimmetrici, non può essere rimessa nella scatola.

Il famoso genio uscito dalla bottiglia non è un’immagine poetica. È un’osservazione strategica. Buffett sottolinea un fatto che molti addetti ai lavori conoscono ma preferiscono edulcorare. I leader dell’intelligenza artificiale, quelli che costruiscono modelli sempre più grandi e potenti, ammettono apertamente di non sapere dove tutto questo porterà. Non è falsa modestia. È una confessione tecnica. I sistemi di AI generativa, gli agenti autonomi, le reti neurali sempre più opache producono risultati che nemmeno i loro creatori sanno spiegare fino in fondo. In un laboratorio di ricerca può sembrare affascinante. A livello planetario è destabilizzante.

Qui entra in gioco la seconda keyword semantica, rischio esistenziale. Buffett richiama l’era nucleare non per gusto del dramma, ma per una somiglianza strutturale. All’alba dell’arma atomica, molti scienziati e politici erano convinti che il possesso sarebbe rimasto limitato a pochi attori razionali. La storia ha fatto il resto. La proliferazione nucleare è diventata una costante geopolitica, con un delicato equilibrio basato sulla deterrenza e sulla paura reciproca. Albert Einstein osservò che la bomba aveva cambiato tutto, tranne il modo di pensare degli uomini. Buffett riprende quella frase come se fosse stata scritta per l’intelligenza artificiale.

L’AI, come il nucleare, promette vantaggi enormi a chi la controlla per primo. Efficienza militare, supremazia economica, manipolazione informativa, automazione decisionale. È ingenuo pensare che gli Stati o le grandi corporation si fermino volontariamente. La competizione tecnologica globale non premia la prudenza, ma la velocità. E ogni accelerazione riduce lo spazio per la riflessione etica e per la governance. Buffett lo dice senza retorica. Una volta avviata, la corsa non può essere fermata. Al massimo può essere regolata, e anche questo richiede una cooperazione internazionale che oggi appare fragile, se non illusoria.

La terza keyword semantica è proliferazione tecnologica. Buffett insiste su un punto che dovrebbe far riflettere chi considera l’intelligenza artificiale solo come un asset di mercato. Le tecnologie potenti tendono a diffondersi. Non restano confinate ai player responsabili. Nel nucleare, il sogno iniziale di un monopolio controllato si è infranto contro la realtà geopolitica. Nell’AI, la dinamica è ancora più rapida. Codice, modelli, know how e capacità computazionali si muovono con una velocità che il diritto internazionale non è progettato per gestire. Il risultato è che strumenti avanzati finiscono nelle mani di attori irresponsabili, criminali o apertamente ostili.

Qui il discorso si fa meno teorico e più cinico. Non servono scenari apocalittici alla Hollywood. Bastano attacchi informatici automatizzati, deepfake su scala industriale, sistemi di sorveglianza autoritaria, armi autonome a basso costo. L’intelligenza artificiale non deve distruggere il mondo per essere pericolosa. Le basta renderlo instabile, imprevedibile e profondamente ingiusto. Buffett, da investitore, comprende bene il concetto di rischio non lineare. Quando i danni potenziali superano di ordini di grandezza i benefici attesi, il problema non è il rendimento, ma la sopravvivenza del sistema.

C’è poi un passaggio che molti commentatori sottovalutano, quello sui limiti del capitale. Buffett, uno degli uomini più ricchi del pianeta, afferma che certi rischi non possono essere risolti con il denaro. È una dichiarazione quasi eretica in un’epoca in cui ogni problema sembra avere una soluzione finanziata. Dice che spenderebbe l’intera sua fortuna per eliminare definitivamente le armi nucleari da anche solo pochi Paesi, se fosse possibile. Il punto non è la cifra. È l’ammissione di impotenza del mercato davanti a rischi sistemici. L’intelligenza artificiale rientra in questa categoria.

Questo è un colpo diretto al cuore della narrativa dominante, quella secondo cui l’innovazione tecnologica si autoregola grazie agli incentivi economici. Buffett smonta l’illusione. Né il mercato né la ricchezza individuale possono neutralizzare tecnologie che operano a livello globale e che interagiscono con la psicologia umana, il potere politico e la competizione militare. L’AI, come il nucleare, richiede governance, coordinamento e soprattutto un cambio di mentalità. Ed è proprio qui che il parallelo diventa più inquietante.

Buffett è coerente da anni su questo fronte. Ha più volte indicato i rischi catastrofici come le vere minacce al valore di lungo periodo, sia per la società sia per Berkshire Hathaway. Nucleare, cyber attacchi, biotecnologie fuori controllo, armi chimiche. L’intelligenza artificiale si inserisce perfettamente in questo elenco. Non perché sia intrinsecamente negativa, ma perché amplifica tutto ciò che tocca. Efficienza e distruzione. Innovazione e manipolazione. Crescita e collasso.

C’è una curiosità che vale la pena citare. Buffett non è un tecnofobo. Ha riconosciuto più volte il potenziale enorme dell’intelligenza artificiale in termini di produttività e progresso. Proprio per questo il suo allarme pesa di più. Non viene da un luddista, ma da qualcuno che ha costruito imperi finanziari scommettendo sull’innovazione. Quando una figura del genere dice che siamo di fronte a qualcosa che assomiglia all’alba dell’era atomica, sta implicitamente dicendo che il rischio non è marginale. È strutturale.

Il messaggio finale, anche se Buffett non lo formula in questi termini, è brutalmente chiaro. L’intelligenza artificiale non è una normale trasformazione tecnologica. È una tecnologia generale, capace di riscrivere le regole del potere, del lavoro, della guerra e della verità. Trattarla come un semplice strumento di crescita economica è un errore di categoria. Significa ignorare la lezione più costosa del Novecento. L’innovazione senza freni, senza governance e senza coordinamento globale tende a superare la capacità umana di gestirne le conseguenze.

Buffett non offre soluzioni facili, e questo forse è l’aspetto più onesto del suo intervento. Non propone regolamenti miracolosi né comitati etici di facciata. Lancia un avvertimento. Siamo già entrati in una nuova era, e non abbiamo ancora aggiornato il nostro modo di pensare. L’intelligenza artificiale corre, il potere si concentra, la proliferazione accelera. La domanda non è più se l’AI trasformerà la società. Lo ha già fatto. La vera domanda è se riusciremo a governarla prima che il costo dell’apprendimento diventi irreversibile.