L’aggiornamento del progetto AI 2027 non è l’ennesimo esercizio di futurologia da conferenza patinata, ma una doccia fredda per chi continua a gestire l’intelligenza artificiale come se fosse un calendario e non una forza economica. La nuova versione del modello, accompagnata da un sito interattivo che permette di esplorare scenari e assunzioni, fa una cosa rara in questo settore: abbandona le vibrazioni, i grafici suggestivi sul brain compute e le profezie autoreferenziali, per ancorarsi a qualcosa di misurabile. Non è una scelta poetica, ma è tremendamente efficace. Ed è anche il motivo per cui molte certezze cominciano a scricchiolare.
AI 2027 nasceva come provocazione intellettuale. Una linea temporale aggressiva che suggeriva l’arrivo di un superhuman coder tra il 2027 e il 2028, con la superintelligenza artificiale a fare capolino subito dopo. Una narrativa seducente, perfetta per LinkedIn e per i board che amano le scadenze nette. Il nuovo aggiornamento, invece, è meno sexy e molto più pericoloso, perché sposta il baricentro dal quando al come. Non chiede più di credere, ma di osservare.
Il cuore del cambiamento è l’adozione di una metrica che fa paura proprio perché è banale. Il miglioramento delle AI su compiti software di lungo orizzonte, misurato dal lavoro del METR sul coding time horizon. In altre parole, quanto tempo un sistema di intelligenza artificiale riesce a lavorare in modo coerente e autonomo su un problema di programmazione reale prima di deragliare. Non benchmark da hackathon, ma lavoro sporco, noioso, ripetitivo, quello che tiene in piedi le aziende. Qui il progresso è visibile, cumulativo e soprattutto confrontabile nel tempo.
Da questa lente emerge una verità scomoda. Il ritmo di miglioramento è impressionante, ma non magico. Cresce, rallenta, incontra attriti. Compute che non scala più come prima. Talento umano che non si moltiplica per decreto. Esperimenti che richiedono tempo, dati, validazione. Rendimenti decrescenti nella ricerca software. Tutte quelle cose noiose che le timeline entusiaste tendono a ignorare. Il nuovo modello le mette tutte sul tavolo, costringendo a fare i conti con la realtà invece che con i desideri.
Il risultato è uno slittamento della mediana. La piena automazione del coding, quello che il modello chiama Automated Coder o AC, non è più attesa alla fine di questo decennio, ma spostata di due o quattro anni, probabilmente nei primi anni Trenta. Per alcuni è una delusione. Per chi guida un’azienda, è una notizia infinitamente più utile. Significa che il cambiamento non sarà un’esplosione improvvisa, ma una pressione costante. Molto più difficile da gestire, perché non concede l’alibi del “non ce l’aspettavamo”.
La distinzione più interessante introdotta dal modello non è però temporale, ma qualitativa. Scrivere codice non è fare ricerca. Un’AI che genera codice corretto, efficiente e manutenibile è già un terremoto industriale, ma resta un esecutore. La vera discontinuità arriva quando un sistema sviluppa quello che i ricercatori chiamano research taste. La capacità di scegliere i problemi giusti, di allocare risorse cognitive su ipotesi promettenti, di scartare strade sterili prima di averle percorse fino in fondo. Qui non si parla più di automazione, ma di sostituzione del giudizio.
In questo spazio vive il rischio di takeoff. Non perché la macchina diventa improvvisamente malvagia, ma perché diventa strategicamente più competente dei suoi creatori. Una superintelligenza artificiale capace di fare ricerca meglio dei migliori esseri umani in quasi tutti i domini cognitivi non è solo un moltiplicatore di produttività. È un attore economico e geopolitico di fatto. Pensare di governarla con le stesse logiche usate per un modello linguistico è un esercizio di autoinganno.
Il messaggio implicito del nuovo AI 2027 è brutale nella sua semplicità. Se la tua strategia dipende da una data, stai sbagliando mestiere. Le date sono rassicuranti, ma fragili. Le capacità, invece, si insinuano. Prima riducono i costi. Poi comprimono i tempi. Infine cambiano le aspettative. Quando il codice diventa economico, il valore si sposta altrove. Quando sperimentare costa poco, l’errore diventa la norma. Quando i cicli di iterazione collassano, vince chi sa decidere più velocemente, non chi scrive meglio.
Qui entra in gioco la vera posta in palio per il 2026 e oltre. Non l’arrivo della superintelligenza artificiale come evento apocalittico, ma l’erosione sistematica dei vantaggi competitivi tradizionali. Team costruiti sull’eroismo individuale. Processi pensati per compensare la scarsità. Governance progettate per un mondo in cui cambiare idea era costoso. Tutto questo diventa improvvisamente obsoleto, non in un giorno, ma in una sequenza di piccoli shock che sommano.
Il sito interattivo rilasciato con l’aggiornamento è quasi un gesto politico. Permette a chiunque di giocare con le assunzioni, di vedere come cambiano le previsioni al variare dei vincoli. È un antidoto al culto dell’esperto. Non ti dice cosa pensare, ma ti mostra cosa succede se sbagli una premessa. In un settore dominato da narrative carismatiche, è un atto di trasparenza radicale che dovrebbe far riflettere più di un CEO.
AI 2027, letto oggi, non è una profezia, ma uno specchio. Riflette quanto siamo ancora attaccati all’idea che il futuro debba arrivare in un formato comprensibile, possibilmente con una slide e una data in grassetto. La realtà, come spesso accade, sarà più lenta e più spietata. L’automated coder arriverà gradualmente, poi all’improvviso sarà ovunque. La superintelligenza artificiale non busserà alla porta, ma si manifesterà come una serie di decisioni prese meglio, più velocemente, più spesso.
C’è una citazione attribuita a William Gibson che circola da anni nel mondo tech. Il futuro è già qui, solo che non è equamente distribuito. L’aggiornamento di AI 2027 suggerisce una variazione più inquietante. Il futuro è già qui, ma non sappiamo ancora riconoscere quali capacità contano davvero. Continuare a fissarsi sulle date è un modo elegante per non affrontare la domanda giusta. Cosa succede alla tua organizzazione quando il pensiero esecutivo diventa una commodity. La risposta, come sempre, non sarà confortevole. Ma ignorarla costerà molto di più.
Website: https://www.aifuturesmodel.com/
Blog: https://blog.ai-futures.org/p/ai-futures-model-dec-2025-update?r=1ih7ah&triedRedirect=true