L’intelligenza non sarà artificiale, sarà istituzionale

Chi continua a immaginare la cosiddetta singolarità come un’entità monolitica, una sorta di dio digitale partorito nei data center della Silicon Valley, sta probabilmente proiettando sul futuro una visione novecentesca dell’intelligenza; una visione rassicurante, quasi teologica, dove il potere cognitivo si concentra in un unico cervello sovrumano. Il paper “Agentic AI and the next intelligence explosion”, firmato da James Evans, Benjamin Bratton e Blaise Agüera y Arcas, demolisce con eleganza questa narrativa e propone qualcosa di molto più inquietante e, allo stesso tempo, più plausibile: l’intelligenza del futuro sarà distribuita, emergente, profondamente sociale. Non un cervello. Un ecosistema.

La tesi centrale è tanto semplice quanto destabilizzante: non assisteremo a un’esplosione di intelligenza individuale, ma a una proliferazione di sistemi che cooperano, competono e si organizzano in strutture complesse. In altre parole, non una mente divina, ma una burocrazia cognitiva su scala planetaria. Chi ha letto Seeing Like a State di James C. Scott riconoscerà il pattern: la vera potenza non sta nell’individuo, ma nell’architettura che coordina milioni di attori.

Il riferimento implicito, neanche troppo velato, è a modelli come DeepSeek-R1, che già oggi dimostrano come l’aumento di performance non derivi semplicemente da più parametri o più GPU, ma dalla capacità di orchestrare processi interni che somigliano sorprendentemente a dinamiche sociali. Non è solo “pensare di più”. È simulare un dibattito interno. Un piccolo parlamento neurale dove diverse ipotesi competono, si raffinano, si correggono. Una “society of mind”, per usare un’espressione che richiama inevitabilmente Marvin Minsky.

Qui il salto concettuale è netto. L’intelligenza non è più una funzione scalare, qualcosa che cresce linearmente con il compute; diventa una proprietà emergente di sistemi complessi. Esattamente come accade nei mercati finanziari o negli ecosistemi biologici. Una singola formica è stupida. Un formicaio può ottimizzare risorse, adattarsi, sopravvivere. La Silicon Valley ha passato anni a costruire formiche più intelligenti. Questo paper suggerisce che dovremmo iniziare a progettare formicai migliori.

Il punto diventa ancora più interessante quando si introduce la dimensione storica. Evans e colleghi ricordano che le grandi esplosioni di intelligenza nella storia umana non sono mai state il risultato di individui isolati più brillanti, ma di nuove forme di organizzazione collettiva. Il linguaggio, la scrittura, la stampa, la burocrazia statale. Ogni volta, l’intelligenza è aumentata perché abbiamo trovato modi migliori per coordinarci. La rivoluzione industriale non è stata guidata da un singolo genio, ma da una rete di istituzioni, standard, infrastrutture.

Questa prospettiva ha un effetto collaterale devastante su molte narrazioni attuali dell’AI. L’ossessione per il modello più grande, per il benchmark più alto, per il leader nella classifica di turno, appare improvvisamente miope. È un po’ come giudicare la potenza dell’economia globale guardando solo al QI medio degli individui. Riduttivo, se non ingenuo.

Nel frattempo, mentre il dibattito pubblico si accapiglia su quale modello sia “più intelligente”, la realtà si sta muovendo altrove. Sistemi multi-agente, orchestrazioni di modelli, pipeline di decisione distribuite. In pratica, stiamo costruendo infrastrutture cognitive che ricordano più un sistema politico che un cervello. Con tutte le implicazioni del caso: conflitti, inefficienze, emergenze inattese.

Il concetto di “human-AI centaurs” si inserisce perfettamente in questa traiettoria. Non è una novità assoluta. Garry Kasparov lo aveva già intuito dopo le sue partite contro Deep Blue: la combinazione uomo-macchina può essere superiore a entrambi presi singolarmente. Tuttavia, ciò che cambia oggi è la scala e la fluidità di queste collaborazioni. Non si tratta più di un umano che usa uno strumento, ma di team ibridi in cui agenti artificiali e umani si riorganizzano dinamicamente.

Una frase che merita di essere isolata, quasi incorniciata: “L’intelligenza del futuro non sarà qualcosa che possediamo, ma qualcosa a cui partecipiamo.” È una distinzione sottile ma fondamentale. Sposta il focus dalla proprietà all’accesso, dalla capacità individuale alla posizione all’interno di una rete.

Questo ha implicazioni economiche enormi. In un mondo di intelligenza distribuita, il vantaggio competitivo non deriva solo dalla qualità dei modelli, ma dalla capacità di orchestrare ecosistemi. Chi controlla le piattaforme, le API, le interfacce, le regole di interazione, controlla di fatto l’intelligenza emergente. Non è un caso che aziende come OpenAI, Google e Microsoft stiano investendo pesantemente in infrastrutture, non solo in modelli.

A questo punto entra in gioco il tema più delicato, e probabilmente più sottovalutato: la governance. Se l’intelligenza diventa un fenomeno collettivo, allora il problema non è più solo “allineare” un modello, ma governare un sistema. Ed è qui che il paper introduce un concetto che dovrebbe far sudare freddo chiunque lavori nel settore: le istituzioni digitali.

L’idea di “parenting AI”, ovvero addestrare modelli attraverso feedback umano, appare improvvisamente insufficiente. Non si governa una società educando ogni singolo individuo. Si costruiscono istituzioni: leggi, tribunali, sistemi di controllo, meccanismi di accountability. Traslato nel mondo dell’AI, questo significa creare auditor artificiali, sistemi di verifica indipendenti, architetture costituzionali che limitino il potere degli agenti.

Chi ha un minimo di memoria storica sa che le istituzioni non emergono spontaneamente in forma perfetta. Sono il risultato di conflitti, compromessi, fallimenti. Applicare questo paradigma all’AI significa accettare un livello di complessità e incertezza che il marketing delle big tech preferisce evitare accuratamente. “Safe AI” suona molto meglio di “costruire un sistema politico per le macchine”.

Una curiosità interessante, quasi ironica: mentre discutiamo di come governare miliardi di agenti artificiali, fatichiamo ancora a regolare piattaforme social con pochi miliardi di utenti umani. La storia suggerisce che sottovalutare la complessità dei sistemi sociali è uno degli sport preferiti dell’umanità.

Il paper, in filigrana, propone anche una ridefinizione implicita del concetto di rischio. La narrativa dominante sull’AI è ancora fortemente influenzata dall’idea di un runaway intelligence, una superintelligenza fuori controllo. In un mondo di intelligenza distribuita, il rischio principale potrebbe essere molto meno cinematografico e molto più burocratico: sistemi opachi, decisioni emergenti difficili da tracciare, responsabilità diffuse fino a diventare evanescenti.

In altre parole, non Skynet, ma Kafka. Non un robot assassino, ma un sistema che prende decisioni che nessuno comprende fino in fondo. Una prospettiva meno spettacolare, ma probabilmente più realistica.

Dal punto di vista strategico, il messaggio è chiaro e, per molti, scomodo. Investire solo in modelli è una strategia incompleta. Il vero vantaggio competitivo si costruirà nella capacità di progettare, controllare e scalare sistemi multi-agente complessi. Infrastruttura, governance, interoperabilità. Parole meno sexy di “AGI”, ma infinitamente più rilevanti.

Una provocazione, che suona quasi come una previsione: la prima vera “esplosione di intelligenza” non sarà annunciata da un benchmark, ma da un cambiamento istituzionale. Un nuovo tipo di protocollo, una nuova architettura di coordinamento, qualcosa che permetta a milioni o miliardi di agenti di lavorare insieme in modo efficace. Quando accadrà, probabilmente non sarà accompagnato da una conferenza stampa. Sarà già ovunque.

Nel frattempo, il settore continuerà a oscillare tra hype e panico, tra promesse messianiche e scenari apocalittici. È il prezzo da pagare per operare in un dominio dove la tecnologia evolve più rapidamente della nostra capacità di comprenderla. O, forse, di governarla.

Una cosa è certa. L’intelligenza artificiale sta smettendo di essere un prodotto. Sta diventando un sistema. E come tutti i sistemi complessi, non sarà né completamente controllabile né completamente prevedibile. La vera domanda non è se raggiungeremo la singolarità, ma che tipo di società costruiremo lungo il percorso.

Una società, vale la pena ricordarlo, in cui le macchine non saranno solo strumenti, ma attori. Non solo esecutori, ma partecipanti. E dove, ironicamente, il problema più grande potrebbe non essere renderle intelligenti, ma renderle governabili.