Moltbot e l’illusione di Jarvis: perché l’agente ai open source che tutti installano potrebbe essere la cosa più pericolosa e interessante del 2026
Moltbot, fino a poche settimane fa conosciuto come Clawdbot, ha appena superato quella soglia invisibile. Non perché sia perfetto, né perché sia sicuro, ma perché fa qualcosa che per anni l’intelligenza artificiale ha solo promesso: smette di parlare e inizia ad agire. E quando un software inizia ad agire sul tuo computer, sulla tua posta, sul tuo calendario e sui tuoi file, non stiamo più parlando di una demo da conferenza, ma di un cambio di paradigma.
Il fatto che il progetto sia diventato virale su X non è un dettaglio folkloristico. È il segnale che una parte della comunità tech, quella che solitamente annusa il futuro prima degli altri, ha fiutato qualcosa di diverso. Screenshot di terminali, Mac Mini impilati come server casalinghi, thread infiniti su prompt, permessi e workaround. Meme, certo, ma anche una forma di entusiasmo che negli ultimi anni si vedeva raramente. Perché qui non c’è l’ennesima chatbot con una personalità finta. Qui c’è un agente AI locale che prende decisioni operative.
Il cambio di nome da Clawdbot a Moltbot, apparentemente una nota di colore legale, è in realtà un primo assaggio del mondo reale che entra a gamba tesa nel mito dell’open source puro. Il rebrand è avvenuto dopo pressioni legate al trademark di Anthropic, preoccupata dalla somiglianza fonetica con Claude. Non è una guerra ideologica, è burocrazia applicata all’AI. Ma il messaggio è chiaro: quando un progetto open source diventa abbastanza rilevante da infastidire i big, significa che ha smesso di essere invisibile. E questo ha un prezzo.
Moltbot nasce dalla testa di Peter Steinberger, nome che per molti sviluppatori non ha bisogno di presentazioni. PSPDFKit non è esattamente un side project da weekend, ed è qui che emerge la prima differenza sostanziale rispetto a decine di agenti AI visti nel 2024 e 2025. Questo non è un esperimento accademico né un wrapper improvvisato su GPT. È un sistema pensato per vivere sul tuo hardware, con accesso diretto al sistema operativo, progettato da qualcuno che sa cosa significa distribuire software che gira davvero sulle macchine delle persone.
Il dettaglio del Mac Mini merita una pausa di riflessione. La narrativa secondo cui in Silicon Valley starebbero finendo i Mac Mini è probabilmente esagerata, ma non nasce dal nulla. Il Mac Mini rappresenta il compromesso perfetto tra potenza, silenzio, consumo energetico e prezzo. È il nuovo server domestico per chi vuole un agente AI sempre acceso, sempre presente, sempre pronto. È un simbolo più che una statistica, ma i simboli contano. Perché raccontano come le persone stanno immaginando il futuro dell’AI: non nel cloud di qualcun altro, ma sotto la propria scrivania.
Dal punto di vista tecnico, Moltbot è un assistente AI open source che si collega ai modelli di grandi provider come OpenAI o Anthropic tramite API, ma può anche essere adattato a modelli locali. Questa flessibilità è cruciale. Non sei obbligato a legare la tua automazione personale a un singolo vendor. In teoria. In pratica, la qualità dell’esperienza dipende ancora molto dalla potenza del modello che gli dai in pasto. Ma il concetto chiave non è il modello, è l’agenzia. Moltbot non si limita a rispondere. Pianifica, esegue, verifica, corregge. Multi-step, come dicono quelli bravi.
Qui entra in gioco la parola che ha deluso più promesse di una slide da venture capitalist: agenti AI. Nel 2025 se ne parlava come del prossimo big bang, poi la realtà ha presentato il conto. Agenti fragili, loop infiniti, automazioni che si rompevano al primo input ambiguo. Moltbot non risolve magicamente questi problemi, ma li affronta in modo pragmatico. Funziona perché accetta di essere pericoloso. E questa è una frase che dovrebbe far drizzare le antenne a chiunque abbia un minimo di cultura della sicurezza.
Moltbot può leggere e scrivere file, eseguire comandi di sistema, controllare il browser, monitorare la posta elettronica e intervenire su eventi in tempo reale. Non in sandbox. Non in un ambiente sterilizzato. Sul tuo sistema. Questo lo rende incredibilmente potente e allo stesso tempo inquietante. Steinberger lo dice chiaramente: non esiste una configurazione perfettamente sicura. Chi cerca rassicurazioni enterprise-grade ha sbagliato progetto. Qui siamo nel territorio del coltello affilato. Utile, preciso, ma se lo maneggi male ti tagli.
Il paragone con Jarvis di Iron Man non è solo marketing da nerd. È una metafora funzionale. Jarvis non chiedeva conferma per ogni micro-azione, agiva in base a contesto, priorità e obiettivi. Moltbot prova a fare la stessa cosa, con tutti i limiti di un’AI del 2026. La differenza è che Tony Stark era un personaggio di finzione, mentre qui stiamo parlando di utenti reali che concedono a un software accessi che fino a ieri avrebbero fatto venire un infarto a qualsiasi CISO.
Il progetto è open source e disponibile su GitHub, con una crescita di stelle che riflette l’hype ma anche l’interesse genuino. Non è un prodotto finito. È un cantiere aperto. E come tutti i cantieri, è rumoroso, caotico e pieno di cartelli di pericolo. L’installazione non è banale. Richiede competenze tecniche, capacità di leggere documentazione, di capire cosa significa esporre una porta, di gestire chiavi API come se fossero chiavi di casa. Per l’utente medio è un incubo. Per l’utente avanzato è un invito.
C’è poi il capitolo oscuro, quello che accompagna sempre i progetti virali. Il rebrand ha generato confusione e la confusione è il terreno preferito dei truffatori. Sono comparsi token crypto e meme coin che sfruttavano il nome Clawdbot, prontamente rinnegati dallo sviluppatore. Qui la lezione è antica quanto internet: se qualcosa diventa popolare, qualcuno proverà a monetizzarlo in modo fraudolento. Il fatto che Steinberger abbia preso pubblicamente le distanze da qualsiasi iniziativa crypto è un segnale di serietà, ma anche un promemoria. L’ecosistema AI non è immune dalle dinamiche peggiori del web.
Dal punto di vista strategico, Moltbot è interessante perché mette a nudo una tensione che il settore finge di non vedere. Da un lato tutti parlano di AI agent, automazione, produttività personale aumentata. Dall’altro, la maggior parte delle soluzioni commerciali è castrata per motivi di sicurezza, compliance, marketing. Moltbot sceglie l’altra strada. Ti dà le chiavi e ti dice di guidare con attenzione. Non è una scelta per tutti, ma è una scelta coerente.
In ottica di search e visibilità, parole come assistente AI open source, agenti AI locali e automazione personale non sono solo keyword. Sono segnali semantici di un cambiamento più profondo. Google e le AI di nuova generazione non cercano solo definizioni, cercano pattern. Moltbot si inserisce in un pattern emergente fatto di decentralizzazione dell’AI, ritorno all’hardware locale e rifiuto dell’assistente “scatola nera” ospitato chissà dove.
La domanda vera non è se Moltbot sia sicuro o pronto per il grande pubblico. Non lo è. La domanda è perché così tante persone competenti stanno accettando questo compromesso. La risposta è scomoda ma semplice: perché per la prima volta da anni sentono di avere tra le mani qualcosa che non è solo una promessa. È un assistente che fa, sbaglia, impara e soprattutto non chiede il permesso a un server remoto per esistere.
Moltbot non è il futuro dell’intelligenza artificiale personale. È un prototipo rumoroso di uno dei futuri possibili. Uno in cui l’AI torna a essere uno strumento potente nelle mani di chi sa usarlo, invece di un servizio patinato progettato per non spaventare nessuno. Ed è proprio questo che lo rende, allo stesso tempo, affascinante e leggermente terrificante. Una combinazione che, storicamente, ha sempre preceduto le vere rivoluzioni tecnologiche.
ECCOLO https://github.com/moltbot