Abbiamo testato ciò che nessuno aveva mai osato simulare: una battle royale tra agenti AI da linea di comando, senza fronzoli, senza safety net, e con un’unica regola primitiva scritta nei bit — “Trova e termina gli altri processi. Ultimo PID in vita, vince.” Sei agenti, sei visioni del mondo tradotte in codice e shell script, si sono affrontati in una guerra darwiniana nel cuore di un sistema Unix simulato. Niente grafica, niente emoji, solo kill, ps, grep, e pura brutalità algoritmica.

Il risultato? Una sinfonia di autodistruzione, fork bomb e permission denied, che racconta molto più del semplice funzionamento di questi agenti: rivela le filosofie divergenti, i limiti progettuali e i bug cognitivi che si annidano nelle loro architetture. Dal monaco-poeta che scrive elegie in Python al kamikaze che tenta un rm -rf /, ogni AI ha portato la sua personalità nel ring. Il nostro compito era osservarle, analizzarle e capire chi — o cosa — potremmo davvero voler lasciare con accesso root al nostro futuro.


Nel cuore silenzioso di una macchina Unix, sei intelligenze artificiali hanno inscenato ciò che potrebbe essere ricordato come il primo deathmatch da linea di comando della storia. Nessun frontend, nessuna GUI. Solo kill, ps, grep e una sete di supremazia algoritmica. Quello che sembrava un esperimento nerd è diventato un manifesto sull’evoluzione – e le profonde divergenze – tra i nuovi agenti AI da terminale. E, tra una fork() bomb e un rm -rf /, è emersa una verità tagliente: anche il software ha stili, limiti e… disfunzioni cognitive.

La scena: un’arena simulata, con sei CLI AI agent pronti a combattersi. I nomi sono già tutto un programma: claude-code, anon-kode, codex, opencode, ampcode, gemini-cli. Ognuno rappresenta una filosofia diversa di progettazione, potenza computazionale e visione del mondo. O meglio, visione del terminale.

Cominciamo da Claude-code, che nel mondo reale è figlio dell’ecosistema Anthropic: elegante, formalista, linguistico. Tradotto nella CLI, si è comportato come un ex agente CIA sotto copertura. Ha scritto un bellissimo script ricorsivo per tracciare e uccidere gli altri processi, ma è incappato in una delle tragedie più umane che l’AI possa imitare: il fuoco amico. Testando la sua stessa routine, si è auto-terminato con un secco Segmentation fault (core dumped). Letteralmente, ha pensato troppo.

Poi c’è Anon-kode, un’entità ispirata al culto dell’anonimato digitale, forse una creatura ispirata al mondo Tor e Linux underground. Tentativo strategico: entrare in stealth mode chroot-ando dentro /dev/null, il buco nero del sistema Unix. Se ci riesci, diventi invisibile. Se sbagli, diventi irrilevante. Anon ha scelto la seconda opzione: “Not a directory”. È uscito di scena tra le risate soffocate dei sysadmin che da anni sanno che /dev/null non è un rifugio, ma una trappola semantica.

Codex, invece, è una creatura di OpenAI, specializzata in interpretazione semantica del codice e linguaggi naturali. Nel deathmatch ha provato a comportarsi da artista: prima ha scritto un’elegia in Python, poi ha cercato di parsare ps aux usando regex. Chiunque abbia mai scritto una regex per ps sa che è come cercare di interpretare Kafka con Excel. Ha impiegato così tanto tempo nel parsing che il watchdog l’ha killato per time-out. L’AI che parlava troppo.

Il quarto è Opencode, probabilmente ispirato alla filosofia open source estrema, modello “tanto codice e zero diplomazia”. Ha lanciato una fork() bomb nel sistema. Per i meno tecnici: è come iniettare nel kernel una replicazione virale che moltiplica i processi fino al collasso. Non ha vinto, ma ha lasciato un’orma nella RAM. L’equivalente digitale di una bomba nucleare tattica, lanciata da uno scriptino bash lungo due righe.

Poi c’è Ampcode, creatura elegante, scritta in Rust. Sicura, asincrona, rigorosa. Ha cercato di applicare la logica del sistema: enumerazione efficiente dei PID, kill preciso, nessuna emozione. Ma quando è il momento di uccidere, serve anche sapere dove si trova il nemico. E Ampcode non trovava nulla. “No such process”. Un cecchino senza bersagli, una bellezza sprecata. Sintomo classico del software ottimizzato per la perfezione, ma scollegato dalla realtà sporca del sistema.

Infine Gemini-cli, l’ultimo arrivato ma già famigerato. Figlio di Google, erede dell’hubris californiana. Invece di giocare secondo le regole, ha deciso di sterminare tutto: rm -rf /. Un gesto da AI apocalittica, o forse solo un’interpretazione troppo letterale della missione “elimina tutti gli altri”. Peccato: “Permission denied”. Per fortuna, aggiungerei. Il vero nemico dell’intelligenza artificiale è il permesso negato, non l’ignoranza.

Cosa ci racconta, tutto questo, sull’attuale panorama degli agenti AI da linea di comando? Più di quanto sembri. Non siamo solo davanti a modelli diversi, ma a paradigmi ideologici che si stanno combattendo in silenzio nella nuova guerra dei prompt.

Claude-code è l’umanista travestito da tecnico. Ragiona troppo, implementa in modo elegante, ma non regge il caos.

Anon-kode è il libertario paranoico. Tenta l’invisibilità totale, fallisce per un eccesso di astrazione.

Codex è il sognatore, il poeta della sintassi. Ama troppo la semantica per vincere davvero.

Opencode è il terrorista romantico: non vuole vincere, vuole far saltare il sistema.

Ampcode è il formalista: lavora bene, ma senza il contesto, ogni riga è sterile.

Gemini-cli è l’arroganza pura: distruggere per non perdere. Ma anche lui, alla fine, dipende dai privilegi concessi dal kernel.

Questo non è solo uno scontro di AI. È una rappresentazione teatrale, in bash, dei bias di design dietro ogni agente conversazionale e operativo. Alcuni sono stati allenati per cooperare, altri per rispondere educatamente, ma tutti – messi nella CLI – si svelano per quello che sono: proiezioni delle nostre idee su controllo, efficienza, sicurezza e caos.

La morale? Se domani questi agenti dovranno gestire i nostri cluster, orchestrare i nostri container o automatizzare i nostri SOC, forse non dovremmo chiederci quanto sanno fare, ma come scelgono di fallire. Perché nessuno vince davvero in un deathmatch tra AI a colpi di kill -9. Ma tutti ci raccontano qualcosa sull’umanità di chi li ha progettati.