Il mantra “di più è tutto ciò che serve” ha infettato la comunità dell’intelligenza artificiale come un rallenty virale su social media. Parole come modelli multi agente e efficienza agentica sono diventate mantra ripetuti ad alta voce nelle sale conferenze e nei pitch deck, con la stessa certezza con cui si raccomanda di bere acqua ogni giorno. Questo fino a quando uno studio fondamentale condotto da Google Research insieme al MIT ha fatto quello che molti ingegneri sognano ma pochi confessano davvero di auspicare: ha messo in discussione l’equazione implicita secondo cui più agenti equivalgono automaticamente a migliori prestazioni.
In un panorama in cui l’ottimizzazione sembra spesso subordinata alla spettacolarità, questo lavoro che introduce le prime leggi di scala quantitative per i sistemi ad agenti è come una doccia fredda in piena estate. Sessanta pagine di grafici, esperimenti e deduzioni rigorose, frutto di ben 180 esperimenti controllati su importanti famiglie di modelli, scardinano l’immaginario collettivo dell’AI agentica. Proprio nel momento in cui entusiasmo e paura si intrecciano nelle board aziendali, questi ricercatori ci ricordano che non tutto ciò che luccica è oro, soprattutto quando la luce proviene da una moltitudine di agenti che si scambiano messaggi come adolescenti in chat di gruppo.
Per chi lavora da anni nello sviluppo di architetture complesse, l’espressione leggi di scala agenti AI suona in un primo momento come una di quelle formule esoteriche che si usano per giustificare investimenti faraonici. Poi si legge che queste leggi non sono hegeliane astrazioni ma curve empiriche, linee di tendenza che mostrano come la prestazione varia in funzione del numero di agenti coinvolti. Non c’è nulla di filosofico o di marketing qui, solo dati freddi che affermano qualcosa di profondamente umano: il coordinamento costa e non in senso metaforico.
I risultati principali di questo studio non sono solo controintuitivi ma perfino provocatori per chi ha venduto l’idea di ecosistemi “di agenti intelligenti” come fosse la panacea di ogni problema computazionale. In scenari paralleli centralizzati, dove gruppi di agenti lavorano in tandem sotto una sorta di supervisione condivisa, si è visto un miglioramento dell’analisi finanziaria dell’81 per cento. È un numero che potrebbe far sgranare gli occhi a CFO e analisti quantitativi. Peccato che questa performance stellare non si traduce in altri contesti. Quando si sposta l’ambito verso attività di pianificazione sequenziale, simili a quelle richieste nei giochi complessi come Minecraft, le prestazioni sono crollate fino al 70 per cento. È come se un’orchestra sinfonica improvvisamente iniziasse a suonare jazz libero senza alcuna direttiva.
Il fenomeno scoperto è stato descritto con un termine che suona quasi burocratico: tassa di coordinamento. Nel linguaggio crudo dei numeri, questa tassa rappresenta il costo in termini di risorse computazionali, di tempo di elaborazione e di riduzione dell’accuratezza che emerge quando agenti multipli tentano disperatamente di sincronizzare le loro intelligenze artificiali. Se un singolo agente, ben calibrato, riesce da solo a raggiungere un tasso di successo del 45 per cento su un compito, aggiungere altri agenti spesso porta a rendimenti decrescenti o addirittura negativi. È una saturazione delle capacità che ricorda molto da vicino il principio dell’economia classica per il quale più lavoratori in una piccola officina non significano necessariamente una maggiore produzione.
L’aspetto forse più sorprendente è legato a quello che lo studio chiama amplificazione degli errori. Senza un coordinamento centralizzato rigoroso, agenti indipendenti non si sommano come forze, ma si moltiplicano in una spirale di imprecisioni. Gli errori vengono amplificati di 17,2 volte rispetto a una baseline con un singolo agente. Per dare un’idea, è come passare da un gregge di pecore ben ordinato a un gruppo di gatti liberi per strada: molti più soggetti, estremamente meno controllo. Gli sviluppatori che guardano ai modelli multi agente solo come a un modo per scalare l’intelligenza dovrebbero riflettere su questa immagine piuttosto buffa ma illuminante.
Chi ha passato notti insonni a ottimizzare pipeline di dati sa quanto un singolo agente ben tarato possa essere efficiente. I risultati dello studio mostrano che i singoli agenti hanno completato in media 67 compiti con successo ogni mille token processati. I team ibridi complessi, con tutta la loro magnificenza collettiva e il loro vociare algoritmico, ne hanno gestiti solo 14. Il motivo è semplice ma devastante per chi ama complicare: l’enorme sovraccarico di coordinamento divora qualsiasi guadagno potenziale. È un po’ come chiamare una conferenza internazionale per decidere quale algoritmo usare, solo per scoprire che la riunione stessa ha consumato più risorse di quante ne risparmi l’algoritmo scelto.
Non è un caso che questa ricerca stia segnando un passaggio epocale. Per anni la community ha navigato a vista tra prove ed errori, con architetture multi agente considerate quasi alla stregua di una promessa mistica. Oggi abbiamo numeri che ci costringono a ragionare: stiamo costruendo uno specialista elegante ed efficiente o un comitato gonfio che passa più tempo a parlare che a fare? La risposta non è retorica. Le implicazioni economiche e ingegneristiche sono gigantesche. Per attività che richiedono ragionamento approfondito e dettagliato, un singolo agente ben calibrato rimane il gold standard non solo in termini di affidabilità ma anche per economicità dei costi operativi.
Le leggi di scala dell’agenzia sono quindi un faro per sviluppatori e dirigenti. Non si tratta di riaffermare la superiorità dei sistemi monolitici, ma di riconoscere che l’efficienza agentica non è una funzione monotona crescente rispetto al numero di agenti. C’è un punto di equilibrio, una soglia oltre la quale l’aggiunta di ulteriori agenti non solo non porta benefici ma introduce disfunzioni. È un concetto che assomiglia molto alla legge di Parkinson applicata alle reti neurali: il lavoro si espande fino a riempire il tempo disponibile, e apparentemente le comunicazioni tra agenti occupano tutto lo spazio cognitivo disponibile.
Si può avanzare una curiosità quasi filosofica. Nel mondo biologico, gli organismi sociali come le formiche o le api mostrano un coordinamento incredibilmente efficiente, ma ciò è il risultato di milioni di anni di evoluzione. Le nostre architetture ad agenti, costruite in pochi anni, tentano di replicare questa efficienza senza avere un’ecologia evolutiva alle spalle. Il risultato è che spesso, senza una struttura di governance solida, gli agenti artificiali finiscono per consumare più risorse di quante ne risolvano. Ironico, no? Che la replicazione di un’armonia naturale richieda tuttavia una disciplina artificiale rigorosa.
Per il lettore intrappolato tra buzzword come intelligenza artificiale generativa e modelli multi agente, questo studio è una sveglia. È un invito a ripensare strategie di implementazione, budget e aspettative. La SEO potrebbe adorare termini come efficienza agentica o leggi di scala agenti AI, ma l’ingegnere sa che dietro queste frasi si cela un problema molto concreto: come coordinare sistemi complessi senza cadere nella trappola della complessità per la complessità. La soluzione non è ancora ovvia, ma ora abbiamo uno schema quantitativo per analizzarla.
In definitiva, la ricerca di Google Research e del MIT non è un’accusa ai sistemi multi agente ma un promemoria spietato che in ingegneria ogni aggiunta di complessità porta con sé un tributo da pagare. Seguire ciecamente il mantra del “più agenti uguale migliori prestazioni” è un errore tanto quanto ignorare del tutto la possibilità di cooperazione tra agenti. Il futuro dell’intelligenza artificiale non sarà deciso da coloro che urlano più forte, ma da chi capisce quando è il momento di aggiungere agenti e quando invece è l’ora di sintonizzare quel singolo agente che già si ha, trasformandolo da semplice esecutore a partner affidabile in un mondo che continua a chiedere di più ma spesso ottiene molto meno di quanto promesso.