Nel cuore dell’argomentazione di Utkarsh Kanwat si legge una frase che fa sobbalzare chiunque viva di hype e speculazioni sull’intelligenza artificiale automatica: «Error rates compound exponentially in multi‑step workflows» . Tradotto dal bureaucratese tech: se ogni passaggio di un agent ha il 95 % di successo, alla ventesima iterazione sei ridotto al 36 % di affidabilità complessiva. Roba da crittografia, ma al contrario: la probabilità di fallimento sale vertiginosamente. E in produzione non puoi permettertelo, servono livelli attorno a 99,9 %.
Questa è la prima keyword principale: “compounding error”, accompagnata da “token cost” e “human‑in‑the‑loop”, che rincarano la dose semantica. L’argomento è peggio di un thriller: errore dopo errore, il sistema fa crack; i costi di contesto aumentano in modo quadratico con la lunghezza della conversazione, e servono intromissioni umane strategiche, rollback precisi, architetture a prova di bomba per tenere in vita il Frankenstein AI.
Qualche curiosità?
Vi propongo l’ironia di Kanwat attorno al debugging dell’infrastruttura: «My DevOps agent works precisely because… it’s 3‑5 discrete, independently verifiable operations with explicit rollback points and human confirmation gates» . Trumpetta un po’ di marketing sul “fully autonomous”, ma sotto il cofano è tutto manuale, verifichiamo, riavviamo, controlliamo, torniamo indietro. Roba da notifica “push/pull request”: il sogno di un agent senza controllo è una barzelletta, almeno per oggi.
Gli avversari della tesi? IBM, Thoughtworks, Agenthunter, Ajith Sahasranamam e la Stanford HAI giocano un j’accuse live. IBM sostiene che “2025 è anno di esplorazione degli agenti” ma rimane scettica sul vero autonomo .
Thoughtworks avverte: solo il 10 % delle aziende li usa oggi, ma il 50 % ha piani per il 2025 – finezza pragmatiche: “rischio non vuol dire barriera,” dice Capgemini (Thoughtworks). Agenthunter elenca blocchi enormi: dati silosati, sicurezza zero‑trust, complessità nata dall’esigenza di accesso a flussi multipli (AgentHunter+1DEV Community+1). Ajith parla di hype spinto, e poi la Stanford HAI illustra una via alternativa: “collaborative agents” dove l’uomo rimane orchestratore, non spettatore( Stanford HAI).
Allora, con chi stiamo? Con Kanwat, ma senza preconcetti. Sull’ingegneria reale e sul controllo, ha ragione da vendere. L’intelligenza artificiale che si autogestisce da solo è un miraggio, una sirena che attira investimenti ma scaraventa lo yacht sugli scogli. Le soluzioni funzionanti sono spesso narrow‑scope e “human‑augmented”. Domanda: meglio un agente monomaniaco che fallisce male, o un toolkit “semi‑auto” che fa il suo lavoro con rollback e interventi strategici?
Qui la mia provocazione da nerd-tech: il futuro non è negli agenti generalisti che fanno tutto, ma in reti di agenti specializzati e controllati. Cose come CrewAI o agent.ai parlano di multi‑agent networks keyword semantiche che contano per SGE ma i nodi critici restano: error compounding, token economics e sicurezza architetturale. I modelli ci sono, la vera rivoluzione arriva con “governance by design”. Le aziende che capiranno questo cambieranno il gioco, non quelle che inseguono l’agente-svizzera.
In definitiva, Kanwat ci spiazza: non è anti‑AI, è iper‑realista, un anti‑hype incendiario con i piedi nelle operations. L’analisi è forte, provocatoria, e mostra che la scrivania piena di alert DevOps può uccidere il sogno glorioso del fully autonomous. Se vuoi una tesi inattaccabile, eccone una: i veri agenti del futuro saranno specialisti, collaborativi, sottoposti a controllo umano, costruiti per sbagliare poco – e se sbagliano, far fallback.
Curioso di sapere come interpreteranno i prossimi trimestri i più grandi vendor? Scommetto che i primi ad ammettere queste limitazioni aumenteranno la loro credibilità e ritorno economico. Ma l’effetto scroll‑magnetico di un buon articolo lo ottieni solo se metti la bomba alla fine: ecco, l’ho fatta.