Claude, Anthropic e il bug che ha fatto impazzire l’intelligenza artificiale

Quando un’azienda come Anthropic, che si propone di rendere l’intelligenza artificiale più “umana”, decide di raccontare pubblicamente tre bug infrastrutturali che hanno compromesso Claude tra agosto e settembre 2025, il messaggio non lascia spazio a dubbi: anche le AI più sofisticate non sono infallibili. C’è un fascino perverso nel vedere una società che parla apertamente di errori che avrebbero potuto far tremare gli ingegneri più temprati, e al contempo, solleva inevitabilmente domande sulla complessità estrema di queste macchine pensanti.

Claude gira su una giostra tecnologica che pochi osano immaginare, tra AWS Trainium, GPU NVIDIA e TPU Google, distribuendo risposte a milioni di utenti tramite API proprietarie, Amazon Bedrock e Google Cloud Vertex AI. Ogni piattaforma ha peculiarità proprie e richiede ottimizzazioni dedicate. Anthropic cerca di mantenere una coerenza quasi maniacale tra le diverse implementazioni, per garantire che l’utente medio non percepisca differenze di qualità. La sfida è titanica: ogni piccolo cambiamento richiede verifiche minuziose su tutte le configurazioni, altrimenti il caos è dietro l’angolo.

Il primo bug, l’errore di instradamento della finestra di contesto, ha mostrato quanto sia facile perdere il controllo anche in sistemi studiati nei minimi dettagli. Il 5 agosto, alcune richieste a Sonnet 4 finivano per sbaglio su server con contesto da un milione di token, inizialmente interessando meno dell’1% delle richieste. Dopo un bilanciamento del carico il 29 agosto, la percentuale è schizzata al 16%, con circa il 30% degli utenti di Claude Code che ha ricevuto almeno una risposta compromessa. La soluzione è arrivata il 4 settembre e, dopo una distribuzione completa, il problema è scomparso entro metà mese. Non male come episodio per mettere in crisi chi pensava che l’AI fosse immune agli errori di routing.

Il secondo bug, la corruzione dell’output, ha avuto un gusto più esotico: un errore sui server TPU ha generato token fuori contesto, includendo caratteri tailandesi o cinesi in risposte in inglese. Succedeva tra il 25 agosto e i primi giorni di settembre su diverse versioni, e ha reso evidente quanto l’infrastruttura distribuita possa tradire i suoi creatori in modi bizzarri. Il 2 settembre il problema è stato risolto, ma il danno di immagine era già servito su un piatto d’argento alla curiosità degli ingegneri e alla fantasia dei media.

Il terzo bug, forse il più insidioso, ha coinvolto la miscompilazione dell’approximate top-k su XLA:TPU. Una modifica al codice finalizzata a ottimizzare la selezione dei token ha scatenato un comportamento latente del compilatore, che si manifestava in modo incoerente, dipendente da operazioni precedenti o strumenti di debug attivi. Il problema ha colpito Haiku 3.5 e probabilmente Sonnet 4 e Opus 3, con correzioni applicate gradualmente tra il 4 e il 12 settembre. Su Sonnet 4, il mistero rimane irrisolto: impossibile riprodurre l’anomalia. È un piccolo promemoria che, anche nel regno delle AI avanzate, la casualità e il caos convivono con algoritmi ultra-ottimizzati.

Rilevare e risolvere questi bug è stato tutto tranne che banale. Sintomi variabili su piattaforme diverse e la sovrapposizione dei problemi hanno confuso i sistemi di monitoraggio, che non hanno colto immediatamente le degradazioni sottili. La privacy degli utenti, giustamente tutelata, ha ulteriormente limitato l’accesso alle interazioni necessarie per diagnosticare i guasti. Il risultato è stata una risposta ritardata e una comunicazione iniziale poco chiara, un classico esempio di come anche i giganti tecnologici possano inciampare sulle loro stesse regole.

Anthropic ha reagito introducendo misure preventive: valutazioni più sensibili per distinguere implementazioni funzionanti da quelle compromesse, controlli di qualità in ambienti di produzione reali, strumenti di debug più rapidi per analizzare i feedback degli utenti senza violare la privacy e un coinvolgimento diretto della comunità per accelerare l’identificazione dei problemi. In altre parole, hanno trasformato il caos in opportunità di apprendimento e resilienza.

Il caso Claude è una lezione di trasparenza industriale. Mostra che anche aziende tecnologiche all’avanguardia devono fare i conti con infrastrutture complesse, bug insidiosi e decisioni difficili. La fiducia degli utenti non si costruisce solo con l’efficienza del modello, ma con la capacità di gestire gli incidenti e comunicare in modo chiaro. Quando l’affidabilità diventa moneta rara, la trasparenza è l’oro che rimane. Anthropic, con tutti i suoi bug pubblicizzati e risolti, ha offerto un raro sguardo dietro il sipario dell’intelligenza artificiale moderna, dimostrando che anche la precisione algoritmica può avere i suoi giorni no.


Paper Anthropic