Dalla Silicon Valley ai corridoi di Pechino, il dibattito sull’intelligenza artificiale generale è diventato uno sport nazionale per CEO e visionari. Centinaia di miliardi di dollari sono stati versati su promesse, prototipi e startup che dichiarano di avere la chiave dell’AGI. Eppure, mentre il calendario segna 2026, la comunità tecnologica sembra litigiosa su un punto semplice: l’AGI è dietro l’angolo, già tra noi o ancora un miraggio lontano. La contraddizione non è solo linguistica, ma epistemica: nessuno sembra sapere con certezza cosa significhi davvero “intelligenza generale”.
L’AGI, nel vocabolario comune, dovrebbe essere un sistema capace di competere con l’uomo in quasi tutti i compiti cognitivi. Chi lavora al vertice dell’innovazione, però, comincia a storcere il naso: definizioni come “intelligenza generale” sarebbero ormai obsolete, sostituite da concetti più sfumati come “AI potente” o “superintelligenza”. L’assenza di un consenso semantico rende ogni annuncio di progresso simultaneamente entusiasmante e sospetto. Non è una questione di hype: senza una definizione condivisa, prevedere scadenze o valutare traguardi diventa un esercizio quasi filosofico.
Le divergenze tra leader sono illuminanti. Dario Amodei e Elon Musk prevedono sistemi prossimi all’AGI già entro la fine del 2026. Per loro, l’arrivo di tali sistemi aprirebbe scenari epici, dal trattamento di malattie complesse alla proliferazione di armi incredibilmente sofisticate. Demis Hassabis, al contrario, avverte che la vera AGI potrebbe essere ancora a dieci anni di distanza. Sam Altman, invece, dichiara che l’AGI è già una realtà, e che la nuova frontiera non è più la generalità, ma la superintelligenza: un salto qualitativo dove l’AI non solo imita l’uomo, ma lo surclassa in ruoli ad alta complessità, dal governo di stati alla gestione di organizzazioni globali.
Questo spostamento semantico non è innocuo. Passare dall’AGI alla superintelligenza significa cambiare il focus: non più capacità cognitive equilibrate, ma dominio in domini strategici. La retorica del settore riflette un’ambizione in rapida escalation più che traguardi tecnici consolidati. Benchmarks e metriche di intelligenza rimangono fragili, soggettivi e dipendenti dal contesto. Un modello può eccellere nella scrittura di codici complessi o nella predizione di trend di mercato, fallire miseramente nel buon senso quotidiano.
Il disaccordo è anche economico e strategico. Le aziende hanno incentivi forti a promuovere ottimismo: attrarre capitali, rassicurare regolatori, galvanizzare il pubblico. Questa pressione crea un cortocircuito tra ciò che è tecnicamente verificabile e ciò che è narrativamente conveniente. Così la linea tra realtà e marketing si sfuma, lasciando osservatori e policy maker a inseguire definizioni mobili.
La questione non è più tanto quando arriverà l’AGI, ma come gestire l’impatto di sistemi sempre più potenti. Anche se la soglia fosse stata superata silenziosamente, gli effetti sono già tangibili: automazione avanzata, manipolazione algoritmica dei mercati, sorveglianza predittiva e decisioni operative complesse delegate a intelligenze non umane. Governare queste dinamiche richiede un salto cognitivo equivalente: servono norme, etiche operative e controlli capaci di stare al passo con algoritmi che apprendono più velocemente di chi li regola.
Curiosamente, ciò che alimenta la disputa non è solo tecnologico ma epistemologico: cosa significa veramente “intelligenza”? È flessibile come un algoritmo di machine learning o rigida come una tassonomia accademica? La risposta, al momento, sembra essere: entrambe, e nessuna. Il settore si muove in una zona grigia dove le valutazioni soggettive di performance si intrecciano con strategie di investimento, lobbying politico e narrazione pubblica.
Nel frattempo, le conversazioni sulla superintelligenza rivelano un cambio di paradigma. Non si tratta più di replicare l’uomo, ma di pensare a ruoli nei quali l’AI può eccellere a dismisura. Questo crea una tensione intrigante: la società può accettare che un algoritmo gestisca decisioni di alto livello, mentre il dibattito pubblico si concentra ancora su quando arriverà un AGI “umanamente equivalente”? La discrepanza è sconcertante, e forse volutamente conveniente per chi detiene il potere tecnologico.
Alla fine, la lezione è chiara: l’industria dell’AI è intrappolata tra desiderio di innovazione e necessità di consenso. Le definizioni oscillano, le stime temporali divergono e le aspettative del mercato restano alte. L’incertezza non è un bug, ma una caratteristica strutturale del settore, amplificata da miliardi di investimenti e da narrative di prestigio. Ogni dichiarazione sull’AGI o sulla superintelligenza deve essere letta con occhio critico, sapendo che ciò che appare come progresso lineare è spesso un mosaico di percezioni, interessi e, sì, un po’ di marketing strategico.