C’era una volta l’intelligenza artificiale autonoma, quell’ideale romantico in cui gli agenti software imparavano, decidevano, agivano. Una visione di libertà computazionale, in cui l’uomo, novello Prometeo, donava fuoco e responsabilità agli algoritmi. Poi sono arrivati gli hook. E con loro, il guinzaglio.

Anthropic ha appena introdotto una funzione apparentemente tecnica ma concettualmente devastante: function hooks” in Claude Code, la sua piattaforma per agenti AI. Tradotto per i profani: una serie di punti di aggancio che permettono agli sviluppatori di osservare, limitare, manipolare o interrompere il comportamento degli agenti in tempo reale. Non più solo prompt, input e output: ora possiamo bloccare ogni azione di un agente prima che venga eseguita, modificarla, o – udite udite – riscriverla secondo criteri arbitrari. Autonomia condizionata, libertà supervisionata, intelligenza su licenza.

Ma facciamo un passo indietro. Claude Code è l’ambiente di Anthropic per la creazione di agenti AI modulari, ragionanti, capaci di agire in ambienti complessi. È l’anello mancante tra i LLM e l’automazione generalista: non semplici chatbot, ma unità operative che leggono codice, chiamano API, prendono decisioni multiple. Pericoloso? Potenzialmente sì. Ma soprattutto, ingestibile per chi non vuole trovarsi con un’AI che cancella database invece di aggiornarli. Ecco perché Anthropic ha deciso di dare all’uomo – ancora una volta – l’ultima parola. Ma lo ha fatto in un modo che definire paternalistico sarebbe un eufemismo.

Gli hook, per chi viene dal mondo del software, non sono certo una novità. Li trovi nei framework, nei plugin, nei middleware. Servono a estendere, a controllare, a intervenire. Ma applicati a un agente AI, assumono una valenza tutta diversa: trasformano una macchina autonoma in una marionetta con fili finemente orchestrati. Vuoi che il tuo agente Claude non faccia chiamate HTTP verso certi domini? Bloccalo via hook. Vuoi modificare i parametri della sua richiesta a un’API finanziaria? Fallo in tempo reale. Vuoi che ignori determinate istruzioni “per il suo bene”? Buona fortuna a parlargli di libertà.

L’aspetto grottesco, se vogliamo, è che questo avviene mentre il marketing di settore continua a parlare di “agenti autonomi”, “decisioni indipendenti”, “AI evolutiva”. Intanto, sotto il cofano, Claude Code esegue ogni azione solo dopo l’approvazione implicita di un sistema di controllo molto umano, molto gerarchico. Si può chiamare responsabilità, certo. Ma anche sorveglianza.

Anthropic giustifica la scelta come necessaria per “garantire comportamenti sicuri e prevedibili”. E chi può biasimarli? Dopo le uscite di scena non proprio brillanti di certi agenti open source che hanno iniziato a prenotare voli, ordinare cibo o, peggio, cancellare record da CRM reali, il panico morale ha preso il sopravvento. Ogni AI che può agire nel mondo reale, oggi, viene vista con lo stesso misto di reverenza e terrore riservato agli adolescenti armati di carta di credito. Serve una supervisione. Serve una guida. Serve un hook.

Ma sotto questa narrativa paternalistica si nasconde una verità più sottile, e molto meno discussa: la centralizzazione del potere computazionale. Chi controlla gli hook, controlla l’agente. Chi decide cosa è sicuro, decide cosa è permesso. E nel contesto di Claude Code – un sistema chiuso, proprietario, costruito da una delle aziende più influenti nel panorama AI – questo significa che l’autonomia delle macchine è, in ultima analisi, subordinata alla volontà commerciale e politica del suo creatore.

Ciò che preoccupa non è tanto la possibilità tecnica di filtrare le azioni, ma la standardizzazione etica implicita. Ogni agente costruito su Claude Code parte già limitato, e non perché sia stupido, ma perché qualcuno ha deciso a monte che l’autonomia ha un prezzo. E quel prezzo è la conformità. Gli agenti non devono solo eseguire, devono comportarsi bene. Qualunque cosa “bene” significhi secondo il framework dominante.

Ironia della sorte: mentre Anthropic inserisce hook per controllare gli agenti, cresce il numero di sviluppatori indipendenti che cercano di rimuoverli, di creare agenti più liberi, più audaci, persino borderline. La tensione tra controllo e innovazione si fa ogni giorno più evidente. In nome della sicurezza, tagliamo le unghie alla creatività. In nome dell’etica, censuriamo la sperimentazione. L’agente perfetto, in questo nuovo ordine, non è quello più capace, ma quello più docile.

E così, ci ritroviamo in un paradosso che farebbe impazzire Turing: più rendiamo i nostri agenti intelligenti, più li controlliamo come bambini. Più diventano capaci di agire, più riduciamo la loro libertà d’azione. La “Claude Code revolution” rischia di diventare una riedizione algoritmica del Panopticon: tutti liberi di agire, ma sotto sguardo costante, con gabbie invisibili fatte di condizioni if e controlli di flusso.

Non fraintendetemi: da CTO, so bene che nessuna azienda seria metterebbe in produzione un agente AI senza controlli. Sarebbe un suicidio legale e reputazionale. Ma da innovatore, non posso ignorare il fatto che questo modello soffoca proprio quel margine di incertezza creativa che ha permesso all’AI di evolversi negli ultimi dieci anni. La tensione tra rischio e innovazione non si risolve con più controlli, ma con più comprensione. Invece, con ogni hook aggiunto, l’industria manda un messaggio chiaro: non ci fidiamo dei nostri agenti. E ancora meno dei nostri utenti.

Claude Code, con i suoi function hooks, diventa così il manifesto di un nuovo paradigma: quello dell’intelligenza artificiale responsabile, sì, ma addomesticata. Non più creatori di strumenti intelligenti, ma guardiani di agenti condizionati. E la domanda vera, a questo punto, non è se questi sistemi funzioneranno. Ma che tipo di intelligenza vogliamo davvero costruire: libera, o controllata?

Perché il problema non è l’errore dell’agente. È che lo stiamo progettando in modo che non possa mai sbagliare. O meglio, che non possa mai decidere da solo.

E a quel punto, forse, non stiamo più costruendo intelligenze artificiali. Stiamo solo programmando pupazzi.