Agenti AI: fine dei protocolli stupidi, inizio dell’intelligenza strutturale

I whitepaper sono i nuovi romanzi di formazione per manager troppo impegnati per leggere. Nove su dieci sono un mix di obvietà, infografiche da pitch deck e frasi fatte scritte con il timore di disturbare il lettore. Ma ogni tanto, in mezzo al rumore bianco, arriva qualcosa che rompe la parete. Il recente rapporto di BCG sugli AI Agents non è solo leggibile: è incendiario.

Non perché sia radicale. Ma perché è normale in un ecosistema ancora dominato da slide in PowerPoint che parlano di “potenziale futuro” mentre il presente bussa con la clava in mano.

La parola chiave qui non è “agente” ma ecosistema. Quello che BCG fa — senza troppi fronzoli è dire: siamo passati dai “prompt” ai protocolli. E non c’è più modo di tornare indietro.

Il modello implicito è semplice: gli agenti non sono chatbot un po’ più svegli. Sono sistemi operativi cognitivi. Sono architetture autonome, contestuali, iterabili, e soprattutto imprevedibili. In un mondo dove il “se-allora” non basta più, l’unica strada è quella dell’autonomia adattiva.

Nessuna formula magica. Ma un’evidenza strutturale: gli agenti stanno divorando le regole hardcoded come il software ha divorato il mondo. Con la differenza che questi mangiano anche il mondo stesso.

BCG afferma che le capacità agentiche raddoppiano ogni 7 mesi. Un’affermazione che sembra scritta su una tovaglietta del MIT, ma che regge. Ed è più spietata di Moore: non si parla di transistor, ma di competenze, cioè di qualcosa che si avvicina all’umano molto più di quanto l’hardware abbia mai fatto.

Nel frattempo, nel mondo reale, i tool stanno facendo la loro rivoluzione silenziosa. Cursor, Replit, Bolt. Se non li conosci, non stai costruendo, stai osservando. Questi strumenti non vendono più “AI as a service”. Vendono flow, cognizione applicata, orchestrazione distribuita.

Cursor è diventato ciò che GitHub Copilot prometteva ma non osava essere. Replit ha creato una piattaforma dove il codice si scrive da solo, ma con te. Bolt è ciò che accade quando prendi LLM, wrapper, e dev tools e li incastri in un’API che non chiede permesso.

E poi c’è lui, MCP – Model Context Protocol. Un acronimo che può sembrare uno scherzo da ingegneri, ma che potrebbe fare al web quello che HTTP ha fatto al testo.

MCP è l’ossatura invisibile di un nuovo paradigma. Serve a dare contesto condiviso agli agenti, in modo modulare e asincrono. Se questa frase ti suona strana, è perché ancora pensi agli agenti come processi lineari. Smettila. MCP è il TCP/IP del pensiero artificiale.

Sostenuto e questo è il punto da OpenAI, Microsoft, Google. Nemici naturali che si trovano uniti solo quando sentono odore di nuovo monopolio. Se tre colossi si mettono d’accordo su un protocollo, vuol dire che sanno che nessuno vincerà da solo. E che il bottino è troppo grosso per non stabilire regole.

BCG, con una lucidità quasi insolente, mette in fila i problemi che nessuno ama discutere quando si è in hype mode: affidabilità, scalabilità, controllo, rischio emergente. La solita minestra? No. Qui si parla di test in campo, non di modelli teorici.

Ci sono casi d’uso reali — dalla logistica dinamica agli audit finanziari — dove gli agenti prendono decisioni non supervisionate, in ambienti ad alta variabilità. E funzionano. Non sempre. Ma abbastanza per capire che il modello ha superato la soglia del laboratorio.

Il problema, semmai, è psicologico. Abbiamo delegato per secoli solo ciò che potevamo predire. Ora dobbiamo delegare anche ciò che non capiamo del tutto. E ci serve un nuovo tipo di fiducia: la fiducia epistemica nei sistemi complessi.

Se sei un founder, un investitore, un builder di AI, questo report è la doccia fredda che ti serve. Ti dice che non puoi più lavorare su agenti come feature. Devi pensarli come piattaforme. Che richiedono governance, design comportamentale, metriche nuove.

“L’intelligenza artificiale è ciò che non funziona ancora,” diceva un vecchio adagio tra gli ingegneri. Ma oggi è il contrario. L’AI funziona troppo bene. Talmente bene da costringerci a ripensare cos’è “funzionare”.

Il futuro non è più una simulazione. È un agente che ha già fatto il deploy. E non aspetta il tuo consenso.