L’intelligenza artificiale non si accontenta più di scandagliare dati storici o costruire modelli analitici, ora vuole sedersi al tavolo dove si decidono le scommesse sul futuro. La notizia che un sistema di AI si sia classificato nella top ten della forecasting cup di Metaculus non è un aneddoto di colore tecnologico, è un segnale chiaro: le macchine stanno iniziando a rivaleggiare con l’intuizione e l’esperienza accumulata dai migliori cervelli umani.

Per qualcuno è una curiosità da bar, per altri un campanello d’allarme. Per chi guida aziende o governi, è un avviso che la capacità di anticipare eventi geopolitici non è più un’arte esclusivamente umana.

Chi non conosce Metaculus tende a immaginarlo come un gioco da nerd ossessionati da geopolitica. In realtà si tratta di una piattaforma che muove previsioni con un impatto reale, un’arena dove ogni tre mesi centinaia di analisti e appassionati si sfidano per spartirsi un montepremi di 5000 dollari rispondendo a domande che spaziano dai colpi di stato in Africa fino alle decisioni della Corte Suprema americana. Non basta un sì o un no, bisogna ragionare in probabilità, percentuali calibrate che riflettono la complessità di eventi globali. E non è solo un esercizio di stile. Gli utenti di Metaculus avevano previsto l’invasione russa dell’Ucraina con due settimane di anticipo rispetto ai giornali mainstream e assegnato un 90 per cento di probabilità all’annullamento di Roe v. Wade mesi prima che avvenisse. Non male per un gruppo di volontari digitali.

Che un algoritmo sia riuscito a entrare nella top ten di un simile contesto è l’equivalente di vedere un robot vincere una partita di scacchi contro Kasparov, ma in uno sport molto meno deterministico. Prevedere mosse di carri armati o sentenze giudiziarie non si riduce a calcoli binari. Qui entra in gioco il paradosso: l’intuizione umana, l’abilità di leggere le sfumature politiche, il sottotesto di un discorso di un ministro o l’odore di guerra percepito nelle stanze diplomatiche. Eppure la macchina, con la sua capacità di processare enormi quantità di dati e individuare pattern nascosti, ha dimostrato che l’intuizione può essere ricostruita in silicio.

La sorpresa degli esperti non è tanto che l’intelligenza artificiale sappia elaborare numeri, quello lo sappiamo da decenni. La sorpresa è che riesca a muoversi con agilità in un dominio definito da incertezza, incompletezza e contraddizioni. Perché qui non ci sono dataset perfetti, ma un flusso continuo di informazioni rumorose, spesso contraddittorie, a volte volutamente manipolate. Che un sistema riesca a destreggiarsi in questo caos e battere gran parte dei partecipanti umani non è un dettaglio: è una dimostrazione che il terreno delle decisioni strategiche non è più impermeabile all’automazione.

La domanda è semplice e allo stesso tempo destabilizzante: se una AI può prevedere con la stessa efficacia o addirittura superiore le prossime mosse di un regime autoritario o l’esito di un processo storico, chi deve avere l’ultima parola nelle stanze dei bottoni? Il problema non è solo tecnico, ma politico e filosofico. Affidarsi a un algoritmo per decidere se aumentare la produzione energetica, investire miliardi in un nuovo mercato o prepararsi a un conflitto significa accettare che la responsabilità del futuro venga condivisa con un’entità che non ha coscienza, né accountability.

Eppure per governi e imprese la tentazione è fortissima. Un sistema di previsione potenziato da AI rappresenta un’arma potentissima per la gestione del rischio e la pianificazione strategica. In un mondo in cui la velocità dell’informazione rende obsolete le analisi nel giro di poche ore, poter contare su un motore che integra dati economici, segnali sociali e dinamiche geopolitiche offre un vantaggio competitivo difficilmente ignorabile. Il problema, naturalmente, è la fiducia. Se un modello dice che c’è il 72 per cento di possibilità che un governo cada entro sei mesi, quanto dobbiamo credergli? E cosa succede se un attore politico usa queste previsioni per giustificare decisioni drastiche?

Le implicazioni sociali non sono meno spinose. L’idea che un algoritmo possa influenzare la percezione del futuro non è neutra. Il rischio è che la previsione diventi performativa: se abbastanza persone credono che un evento accadrà, le loro azioni possono contribuire a farlo accadere. Una profezia che si autoavvera, ma alimentata non da oracoli umani bensì da reti neurali.

Questa evoluzione mette anche in evidenza un aspetto cruciale dell’intelligenza artificiale: il suo passaggio dal ruolo di calcolatore avanzato a quello di decisore embrionale. Finora abbiamo pensato alle AI come a strumenti per analizzare scenari e supportare processi, ora ci troviamo davanti a sistemi che competono direttamente sul piano della previsione, cioè del giudizio. Non è un dettaglio semantico, è un cambio di paradigma.

Il confine tra intuizione umana e previsione algoritmica si sta assottigliando con una rapidità che sorprende anche i più scettici. E forse è proprio questa la vera posta in gioco: non capire se le macchine ci sostituiranno, ma quanto saremo disposti a lasciare che guidino le nostre scelte prima ancora che il futuro arrivi. I vecchi statistici amavano dire che tutti i modelli sono sbagliati ma alcuni sono utili. Nel mondo della previsione geopolitica, dove un colpo di stato può spostare miliardi di dollari e decidere la vita di milioni di persone, l’utilità rischia di avere un prezzo molto più alto di quello che immaginiamo.