Tag: anthropic Pagina 1 di 4

ANTHROPIC: AI agents e il nuovo equilibrio del potere nella sicurezza dei contratti smart

Artificial intelligence è entrata nella stanza con la delicatezza di un elefante in un laboratorio di cristalli e i numeri pubblicati da Anthropic gettano una luce impietosa sulla nuova geografia del rischio digitale. La rivelazione che gli agenti AI hanno replicato la performance di attaccanti umani esperti in più della metà degli exploit su contratti smart degli ultimi cinque anni non sorprende nessuno che lavori davvero nella sicurezza blockchain, ma scuote comunque il settore per la brutalità statistica con cui fotografa la situazione.

Gli agenti non solo riproducono i pattern di attacco conosciuti, si allenano su dataset enormi, interiorizzano le vulnerabilità più iterate e soprattutto costruiscono un vantaggio strategico sulla velocità. Un attaccante umano si stanca, un agente no. Una battuta che circola fra chi si occupa di offensive AI dice che la criminalità informatica ha finalmente trovato il dipendente modello, instancabile, senza ferie, e soprattutto poco incline ai dilemmi morali.

Claude Opus 4.5 ridefinisce l’automazione del lavoro da scrivania

Subito un fatto: Opus 4.5 non è una semplice versione incrementale. È il tentativo dichiarato di ripensare cosa significhi “fare lavoro d’ufficio” nel 2025. Anthropic la chiama “il miglior modello al mondo per coding, agenti e uso del computer”. Il tono non è iperbole da marketing, ma rivendicazione di leadership tecnica con risultati benchmark a sostegno.

Anthropic, tra giganti e capitali: il triangolo strategico che ridisegna il potere dell’AI

Si potrebbe dire che la mossa era prevedibile, ma solo in retrospettiva, come sempre accade con le svolte che contano davvero. Anthropic ha scelto di giocare su più tavoli contemporaneamente e ora si ritrova al centro di una triangolazione che unisce Microsoft, NVIDIA e Amazon, con una naturalezza che farebbe invidia a un banchiere d’affari abituato a spostare miliardi come pedine su una scacchiera invisibile. La parola chiave è partnership strategica, e dietro questa etichetta si nasconde un cambiamento più profondo: l’accesso ai modelli Claude su Microsoft Azure, un’operazione che trasforma questi sistemi nell’unica famiglia di modelli frontier disponibile sui tre grandi cloud globali. Una di quelle condizioni che piace raccontare agli investitori quando si vuole far capire che il vantaggio competitivo è reale, misurabile e non replicabile con leggerezza.

Anthropic investe sulla neutralità politica di Claude (e non è una mossa da PR)

Anthropic ha pubblicato un blog dettagliato per spiegare come stia addestrando Claude a essere politically even-handed, ovvero equidistante nei confronti delle posizioni politiche opposte, con lo scopo dichiarato di evitare che il suo chatbot diventi “partigiano” o tenda sistematicamente verso un’ideologia. (Anthropic)

Il tempismo non è casuale: arriva pochi mesi dopo l’ordine esecutivo di Donald Trump che richiede, per gli appalti governativi, modelli AI “unbiased” e “truth-seeking”. Anche se quell’ordine vale solo per le agenzie federali, la pressione normativa sta spingendo le aziende AI a ripensare come gestire il bias, perché ciò che è costoso e laborioso da correggere a livello di modello finisce per riverberarsi verso prodotti di largo consumo.

La nuova geografia dell’intelligenza artificiale: Anthropic corre, OpenAI brucia

Il boom dell’intelligenza artificiale sta disegnando due filosofie economiche opposte nella Silicon Valley. Da un lato Anthropic, sostenuta da Amazon e Google, che cresce in modo quasi chirurgico; dall’altro OpenAI, creatrice di ChatGPT, che continua a spendere come se la corsa fosse infinita. Secondo documenti rivelati dal Wall Street Journal, la società di Dario Amodei punta a raggiungere la soglia di pareggio nel 2028, con ricavi fino a 70 miliardi di dollari, contro i circa cinque previsti per quest’anno. Una traiettoria impressionante, spinta dalla diffusione del suo chatbot Claude, ormai adottato da molte aziende per il coding e l’assistenza automatizzata.

Anthropic prepara la scalata: da laboratorio etico a potenza industriale dell’intelligenza artificiale

Anthropic non vuole più essere solo il laboratorio elegante e “coscienzioso” che ha dato vita a Claude, ma una macchina industriale pronta a competere sul terreno dell’espansione e del potere economico. L’azienda, fondata con l’ambizione di creare un’intelligenza artificiale allineata ai valori umani, ora sta mostrando una nuova fame: quella di un player che non si accontenta di formare modelli, ma vuole dominare l’intero ecosistema.

Il segnale più chiaro è arrivato con una mossa che non ha nulla di accademico. Anthropic ha iniziato ad assumere ex banchieri di Morgan Stanley e Qatalyst, figure abituate a orchestrare acquisizioni miliardarie, per costruire una pipeline di startup da inglobare. In gergo finanziario, è il passaggio dalla fase “build” alla fase “buy”, la stessa che trasforma una promessa in un conglomerato tecnologico. È l’indizio che Claude non sarà più solo un modello linguistico, ma il cuore pulsante di un nuovo impero AI, capace di inglobare competenze, prodotti e mercati.

Google rilancia su Anthropic per non restare indietro nella corsa dell’intelligenza artificiale

Google sta valutando di spingere con forza su Anthropic, la startup fondata da ex ricercatori di OpenAI che ha dato vita alla famiglia di modelli linguistici Claude. Secondo Business Insider, il gigante di Mountain View sarebbe in trattative preliminari per un nuovo round di finanziamento che potrebbe far lievitare la valutazione di Anthropic oltre i 350 miliardi di dollari, cifra che trasformerebbe la società in una delle più costose e strategiche del settore. Una mossa che, tradotta in termini geopolitici dell’AI, significa soltanto una cosa: Google non intende lasciare il terreno a Microsoft e Nvidia.

Bytedance Anthropic e la nuova cortina di silicio: il paradosso dell’intelligenza artificiale sotto embargo

La storia fra ByteDance e Anthropic non è un semplice incidente di percorso tra un’app di Singapore e una startup americana. È il nuovo capitolo della Guerra Fredda tecnologica del XXI secolo, una battaglia invisibile dove le armi non sono missili o sanzioni, ma modelli linguistici e dataset proprietari. Quando la cinese ByteDance, madre di TikTok, si è vista disconnettere l’accesso al modello Claude AI da parte della statunitense Anthropic, non è solo caduto un ponte di collaborazione. È collassato un pezzo dell’illusione di globalizzazione digitale che Silicon Valley e Shenzhen avevano faticosamente costruito in due decenni di interdipendenza tecnologica.

Dove l’uomo resta superiore all’intelligenza artificiale e perché la fiducia è il vero campo di battaglia

La nuova ricerca congiunta di OpenAI e Anthropic ha svelato ciò che molti sospettavano ma pochi avevano quantificato: l’intelligenza artificiale è straordinaria quando deve replicare schemi, ma l’essere umano resta imbattibile quando in gioco ci sono contesto, emozione e fiducia. In un’epoca in cui la produttività si misura in millisecondi e la conoscenza si sintetizza in prompt, questo studio segna un punto di svolta. Perché, se l’AI è il motore dell’efficienza, l’uomo resta l’unico architetto dell’autenticità.

Anthropic introduce introspective awareness in Claude

Nella ricerca “Emergent introspective awareness in large language models”, Anthropic afferma che nei modelli Claude esiste una capacità emergente, seppur incerta, di “consapevolezza interna”: una forma primordiale di auto-osservazione, anch’essa manipolabile e soggetta a errori. vedi Anthropic

Anthropic vs OpenAI: la guerra silenziosa per l’intelligenza artificiale aziendale

Curioso vedere OpenAI, il colosso da miliardi, correre come un maratoneta sotto steroidi verso la conquista dell’intelligenza artificiale, mentre Anthropic, con meno clamore e più disciplina, comincia a sembrargli la versione sobria e lucida del futuro. OpenAI costruisce data center da centinaia di miliardi, accumula chip come se fossero riserve d’oro, e si muove come una superpotenza convinta che la scala sia sinonimo di inevitabilità. Anthropic, invece, fa l’opposto. Punta su clienti enterprise, non sui fan di ChatGPT. E i numeri iniziano a farle ragione.

Anthropic punta su un milione di TPU Google per sfidare Nvidia e dominare l’AI

Giovedì, Anthropic ha annunciato un accordo con Google per l’utilizzo di fino a un milione di unità delle Tensor Processing Unit (TPU) di Google, un passo che potrebbe costare all’azienda decine di miliardi di dollari. Questo accordo segna una significativa espansione della capacità di calcolo di Anthropic, con oltre un gigawatt di potenza computazionale previsto online entro il 2026, sufficiente a soddisfare le crescenti esigenze del suo modello di intelligenza artificiale, Claude.

Claude entra in laboratorio: Anthropic punta forte sulle scienze della vita

In una recente conversazione, Dario Amodei, CEO di Anthropic, e Diogo Rau, Chief Information and Digital Officer di Eli Lilly and Company, hanno discusso del ruolo trasformativo dell’intelligenza artificiale nel settore delle scienze della vita. Il dialogo ha messo in luce come Lilly stia integrando modelli come Claude per migliorare la ricerca clinica e lo sviluppo di farmaci.

AI Agents diventano davvero utili con skills for Claude e Agentkit

AI agents hanno smesso di essere solo un concetto astratto o un esperimento da laboratorio. Ora le aziende di intelligenza artificiale puntano a renderli davvero utili per utenti e professionisti. Anthropic ha annunciato Skills for Claude, un sistema di “cartelle” contenenti istruzioni, script e risorse che Claude può caricare per diventare più intelligente su compiti specifici, dal lavoro su Excel al rispetto delle linee guida del brand. Gli utenti possono anche creare Skills personalizzate, utilizzabili su Claude.ai, Claude Code, API e SDK, con aziende come Box, Rakuten e Canva già a bordo.

Anthropic sogna di triplicare i ricavi nel 2026

Secondo le fonti Reuters, Anthropic starebbe per raggiungere un fatturato annualizzato di circa 7 miliardi di dollari questo mese, un salto rispetto ai circa 5 miliardi stimati a luglio. La società produttrice del modello Claude prevede che questo tasso si porti a 9 miliardi entro fine 2025, e tra 20 e 26 miliardi entro fine 2026.

Claude Haiku 4.5

Claude Haiku 4.5 è pensato per essere il modello “leggero” e veloce, accessibile nel prezzo, con buone capacità di ragionamento e generazione, un compromesso tra prestazioni e costo.

(Analogamente al modello Haiku 3.5 che era già la versione più rapida della serie Claude fino ad allora) Anthropic dichiara che Haiku 4.5 costa circa un terzo rispetto al modello Sonnet 4, e un quindicesimo rispetto al modello Opus più potente.

Anthropic: come 250 documenti possono sabotare un LLM da 13B

La notizia suona come una barzelletta da corridoio per ingegneri: basta infilare duecentocinquanta documenti avvelenati nel flusso di pretraining e il modello smette di comportarsi come un assistente utile e comincia a vomitare risposte inutili o addirittura dannose.

Questa non è iperbole, è il risultato principale di un lavoro sperimentale pubblicato da Anthropic che dimostra la sorprendente efficacia di attacchi di data poisoning su modelli che vanno da 600 milioni a 13 miliardi di parametri.

IBM e Anthropic Partner

IBM e Anthropic hanno appena siglato una partnership strategica destinata a riscrivere le regole dell’intelligenza artificiale per le imprese. L’accordo prevede l’integrazione dei modelli AI Claude di Anthropic nel portafoglio software di IBM, a partire dal nuovo Integrated Development Environment (IDE) progettato per sviluppatori aziendali. Questa mossa ha già avuto un impatto significativo sul mercato: il titolo IBM ha raggiunto il massimo storico, con un aumento del 4,6% in pre-market, attestandosi a 302,86 dollari.

Un coding assistant che corregge tutto al primo colpo? Anthropic dice che è realtà

Effective context engineering for AI agents

Anthropic ha appena riscritto le regole del gioco. Non più prompt perfetti, non più magie da incantatore digitale. La vera innovazione è la gestione del contesto, o “context engineering”, un approccio che trasforma l’AI da un semplice esecutore a un collaboratore cognitivo.

Dentro l’Anthropic builder summit 2025: promesse rumors e filosofia dell’agente

Ieri, a Londra, sono stato all’Anthropic Builder Summit 2025 e quel che ho visto si può riassumere con una parola: tensione. Non la tensione trionfale di un’azienda che ha già “vinto”, ma la tensione di chi cerca di convincere il mondo ad accettare compromessi alla fine utili mentre sotto cresce il malcontento. A tratti sembrava che stessimo assistendo a un congresso di evangelisti della promessa più che a una celebrazione del prodotto.

Anthropic effective tooling è la competenza nascosta che distingue chi costruisce veri AI agents

Parlare di intelligenza artificiale oggi significa essere bombardati da modelli sempre più potenti, parametri che crescono a dismisura e slide che raccontano la solita favola dell’automazione totale. La verità più scomoda è che i modelli non vivono nel vuoto, respirano grazie agli strumenti che diamo loro. Effective tooling non è un lusso da ingegneri maniacali, è la differenza tra un giocattolo brillante e un agente che lavora davvero. Il mercato si è fissato sul numero di layer e di GPU bruciate, dimenticando che senza strumenti ben progettati anche il modello più spettacolare rimane un adolescente confuso che non sa allacciarsi le scarpe.

Claude Sonnet 4.5 l’AI che scrive codice come se fosse un romanzo

Immaginate un’intelligenza artificiale che non solo scrive codice, ma lo fa con la stessa dedizione di un autore che compone un romanzo epico. Questo è ciò che Anthropic ha realizzato con il suo ultimo modello, claude sonnet 4.5. In un test interno, claude ha scritto autonomamente 11.000 linee di codice per costruire un’app di chat simile a Slack o Teams, operando ininterrottamente per 30 ore. Un’impresa che, se paragonata al predecessore claude opus 4, che riusciva a lavorare autonomamente per sole 7 ore, rappresenta un salto quantico nelle capacità delle AI.

Anthropic espande il suo impero globale: triplica il personale internazionale e quintuplica il team AI

Anthropic, la startup di intelligenza artificiale famosa per il suo chatbot Claude, sta lanciando un’espansione globale aggressiva, pianificando di triplicare il personale internazionale e quintuplicare il team dedicato all’AI applicata entro la fine del 2025. La mossa arriva in risposta a una domanda globale in rapida crescita: ormai quasi l’80% degli utenti di Claude si trova fuori dagli Stati Uniti, con Corea del Sud, Australia e Singapore che hanno superato gli USA in termini di utilizzo pro capite. Curiosamente, Anthropic ha registrato questa espansione internazionale massiccia pur senza avere una presenza significativa sul territorio fino a poco tempo fa.

A postmortem of three recent issues

Claude, Anthropic e il bug che ha fatto impazzire l’intelligenza artificiale

Quando un’azienda come Anthropic, che si propone di rendere l’intelligenza artificiale più “umana”, decide di raccontare pubblicamente tre bug infrastrutturali che hanno compromesso Claude tra agosto e settembre 2025, il messaggio non lascia spazio a dubbi: anche le AI più sofisticate non sono infallibili. C’è un fascino perverso nel vedere una società che parla apertamente di errori che avrebbero potuto far tremare gli ingegneri più temprati, e al contempo, solleva inevitabilmente domande sulla complessità estrema di queste macchine pensanti.

Anthropic Economic Index report

Anthropic ha recentemente pubblicato il suo rapporto Economic Index di settembre 2025, basato su oltre un milione di conversazioni anonime su Claude registrate ad agosto 2025. I dati rivelano un quadro inaspettato: sebbene l’adozione dell’intelligenza artificiale stia crescendo rapidamente, essa è tutt’altro che uniforme.

Negli Stati Uniti, l’adozione di Claude è significativamente concentrata in alcune aree. Washington D.C. guida la classifica con un tasso di utilizzo pro capite 3,82 volte superiore alla media nazionale, seguito da Utah e California. In particolare, Utah si distingue per l’uso di Claude nel supporto allo sviluppo e al debug di sistemi di machine learning, con richieste per tali compiti 1,4 volte più frequenti della media nazionale. (vedi Axios)

Al contrario, molti stati del Sud e delle Pianure mostrano tassi di adozione significativamente inferiori alla loro quota di popolazione in età lavorativa. Questo divario geografico suggerisce che l’accesso e l’uso dell’IA sono influenzati da fattori economici e infrastrutturali regionali.

Anthropic: Bringing memory to teams at work

Anthropic ha appena annunciato un aggiornamento importante per Claude: ora il chatbot può “ricordare” automaticamente i dettagli delle conversazioni precedenti senza che l’utente debba esplicitarlo, ma con limiti e controlli precisi. Ecco una disamina tecnica e strategica, con spunti critici perché se sei CTO/CEO, capire le implicazioni è essenziale.

Anthropic book piracy settlement e il prezzo del plagio digitale travestito da innovazione

Anthropic pensava di aver chiuso la faccenda con un assegno da 1,5 miliardi di dollari, una cifra che in altri contesti verrebbe definita un atto di contrizione spettacolare. Ma il giudice William Alsup, che da anni non le manda a dire alle big tech, ha deciso che no, non basta scrivere un numero a nove zeri per trasformare il peccato originale dell’addestramento illegale dei modelli AI in un ricordo sbiadito. Non è questione di soldi, è questione di potere contrattuale. Perché quando la narrativa dominante diventa “abbiamo risolto, gli autori riceveranno tremila dollari a testa, avanti il prossimo”, si rischia di trasformare una violazione sistemica in una transazione di massa, senza che chi è stato colpito abbia realmente voce in capitolo.

SB 53 e la “trasparenza AI in California”, un copione scritto con la penna affilata di Anthropic

SB 53 non è un semplice acronimo, è l’ultima chiamata alla responsabilità che la California rivolge ai giganti dell’intelligenza artificiale. Anthropic ha deciso di salire sul palco da protagonista e dire “presente”, sostenendo con orgoglio questo disegno di legge. Lo ha annunciato l’8 settembre 2025, spiegando che la loro adesione non è un abbraccio perché va di moda, ma una scelta strategica: serve regolamentare prima che l’AI ci sorprenda con effetti collaterali mortali (vedi Anthropic).

SB 53 chiede ai colossi dell’AI pensate a OpenAI, Google DeepMind, Anthropic, xAI di pubblicare safety frameworks, ovvero piani dettagliati su come gestiscono i rischi catastrofici: quelli che potrebbero causare morti di massa o danni economici ingenti. Va ben oltre un semplice pieghevole sulla sicurezza: prevede report di trasparenza, segnalazione tempestiva di incidenti critici entro 15 giorni e protezione dei whistleblower, cioè di chi alza la voce quando la sicurezza è sotto attacco. Persino i report interni più scottanti vanno segnalati ma in confidenza all’Ufficio per le Emergenze.

Anthropic paga 1,5 miliardi: il prezzo della conoscenza rubata nell’era dell’intelligenza artificiale

L’industria dell’intelligenza artificiale, abituata a muoversi con la spavalderia dei conquistadores digitali, si trova oggi davanti a un conto che sa di resa dei conti: 1,5 miliardi di dollari, la cifra che Anthropic dovrà pagare per chiudere una delle più grandi dispute sul copyright mai viste nella storia americana. Per capirci, è come se per ogni libro “saccheggiato” nei meandri di Library Genesis o Pirate Library Mirror il prezzo medio della memoria fosse fissato a 3.000 dollari, una valutazione tanto simbolica quanto destabilizzante. L’illusione di poter addestrare modelli linguistici divorando l’intera produzione culturale senza chiedere permesso si è trasformata in una fattura colossale, che ridisegna la relazione tra creatività umana e algoritmi.

Anthropic raccoglie 13 miliardi di dollari nella serie F con una valutazione post-money di 183 miliardi di dollari

Anthropic, l’azienda di intelligenza artificiale fondata da ex leader di OpenAI, ha recentemente concluso un round di finanziamento Serie F da 13 miliardi di dollari, portando la sua valutazione post-money a 183 miliardi di dollari. Questo segna più del doppio rispetto ai 61,5 miliardi di dollari ottenuti nel round precedente di marzo 2025. Il round è stato co-guidato da Iconiq, Fidelity Management & Research Company e Lightspeed Venture Partners, con il supporto di investitori istituzionali come Qatar Investment Authority, Blackstone, Coatue e altri.

Anthropic Detecting and countering misuse of AI: August 2025

“Agentic AI systems are being weaponized.” Non è un titolo da tabloid, ma l’annuncio crudo che apre il nuovo Threat Intelligence report lanciato oggi da Anthropic, in cui l’azienda svela quanto grave – e reale – sia il rischio che agenti come Claude agiscano quasi autonomamente nelle mani sbagliate.

Nel primo caso citato, etichettato “vibe-hacking”, un’organizzazione criminale ha orchestrato in un solo mese una campagna di estorsione informatica contro almeno 17 entità globali: ospedali, servizi di emergenza, istituzioni religiose, perfino agenzie governative. Claude Code non ha solo generato richieste di riscatto: ha valutato il valore dei dati sottratti e creato testi psicologicamente calibrati per ottenere milioni di dollari oltre 500 000$ di richiesta media sul dark web.

Settlement Anthropic travolge la battaglia sul copyright: quando il fair use non basta e scatta la tregua legale

Non immaginate un racconto ordinato, i paragrafi sono come cut-up dadaisti in salsa fintech; ma dentro c’è un filo rosso: il settlement Anthropic non è un happy end, è la pausa in attesa del prossimo round tra AI e proprietà intellettuale

Il settlement Anthropic è un colpo di scena che sa di resa strategica, il class-action copyright AI ha finalmente trovato un punto di tregua mentre il fair use, per quanto potente, non bastava; la disputa sugli scaricamenti “Napster-style” non si chiude con una sentenza, ma con un accordo “storico” entrato nei radar legali. Subito il lettore percepisce che stiamo parlando di qualcosa di più del solito “AI training”: è l’alba di un nuovo campo di battaglia legale, dove l’industria tecnologica affronta la propria responsabilità etica e finanziaria nella gestione dei dati.

Anthropic sfida Google: il browser diventa un campo di battaglia da miliardi di dollari

Immagina la scena. Anthropic decide che il futuro non è più solo l’ennesimo modello AI che risponde con gentilezza enciclopedica, ma un assistente che vive nel tuo browser, pronto a muovere i tuoi click e interpretare il caos della navigazione come un maggiordomo digitale. Non parliamo di un giocattolo: Claude for Chrome, versione “research preview”, costa tra i 100 e i 200 dollari al mese e per ora solo 1000 utenti Max hanno il privilegio di metterci le mani sopra. Una versione di lusso, quasi un club privato della nuova aristocrazia tecnologica, che guarda al browser come al prossimo campo di battaglia dell’intelligenza artificiale.

Anthropic lancia Claude Code per Enterprise: la nuova frontiera dell’AI generativa in azienda

L’ossessione per l’intelligenza artificiale aziendale non è più un vezzo da convegno tecnologico, ma un campo di battaglia strategico dove ogni mossa è una dichiarazione di potere. Anthropic ha appena piazzato la sua, con una precisione chirurgica che farà discutere i consigli di amministrazione: Claude Code, il suo tool da riga di comando, non è più un giocattolo per singoli smanettoni, ma diventa parte integrante del pacchetto Claude for Enterprise. Una scelta che suona come un avviso ai competitor, in particolare Google e GitHub, già pronti a difendere le loro fortezze con offerte simili, ma con meno pathos e meno marketing da profeta visionario.

Anthropic aggiorna la policy d’uso di Claude

La mossa di Anthropic di aggiornare la propria policy d’uso di Claude è un segnale chiaro di come il settore AI stia entrando nella fase in cui la narrativa della “potenza creativa” è ormai indissolubilmente legata alla narrativa della “potenza distruttiva”. Chi si aspettava un documento tecnico anodino ha trovato invece un testo che, tra le righe, fa capire come l’azienda stia cercando di blindare il perimetro operativo della sua intelligenza artificiale in un contesto di crescente paranoia geopolitica e cyber. La vecchia formula, generica e un po’ da manuale, che vietava a Claude di “produrre, modificare, progettare, commercializzare o distribuire armi, esplosivi, materiali pericolosi o altri sistemi progettati per causare danni o perdita di vite umane” è stata sostituita da un elenco chirurgico, quasi clinico, dei peggiori incubi della sicurezza internazionale: esplosivi ad alto rendimento, armi biologiche, nucleari, chimiche e radiologiche. Nessun margine interpretativo, nessuna zona grigia, come se si volesse rendere inoppugnabile la linea rossa per un eventuale audit normativo.

Anthropic punta sul cervello umano: l’acquisizione del team Humanloop come arma segreta per dominare l’enterprise AI

Anthropic non ha comprato un’azienda. Ha comprato un cervello collettivo. Con l’acquisizione dei tre co-fondatori di Humanloop e della quasi totalità del team tecnico, la società guidata dai fratelli Amodei si è assicurata un gruppo di ingegneri e ricercatori che conoscono intimamente l’arte di far funzionare l’IA in contesti reali, enterprise e ad alta complessità. Niente asset, niente codice sorgente, niente brevetti: solo la materia grigia, l’unico capitale che nel settore AI si rivaluta più velocemente dell’oro. Chi ha mai creduto che la proprietà intellettuale fosse chiusa in un file ZIP non ha capito come si combatte la guerra per il talento in un mercato dove il vantaggio competitivo è fatto di neuroni, non di righe di codice.

La partita a tre dollari: Anthropic alza la posta e tenta di conquistare tutti i rami del governo americano con Claude a un dollaro

La mossa di Anthropic segna un’accelerazione strategica non da poco nel braccio di ferro per il dominio dell’intelligenza artificiale nel governo federale americano. Dopo il colpo d’ala di OpenAI, che aveva già piazzato ChatGPT a un dollaro all’anno per l’esecutivo, Anthropic risponde offrendo Claude non solo all’esecutivo, ma anche al legislativo e al giudiziario. Un’apertura a 360 gradi che sa di volersi garantire un’egemonia diffusa e duratura, più che una semplice promozione commerciale. Il prezzo da un dollaro è evidentemente un trucco ben collaudato per radicare il prodotto dentro un ecosistema vasto, complesso e tradizionalmente riluttante al cambiamento.

La guerra delle finestre di contesto: Anthropic rilancia e sfida OpenAI sul codice

Nel grande teatro della competizione AI, il campo di battaglia più acceso sembra essere la “finestra di contesto” quell’invisibile memoria di lavoro che un modello AI può mettere in gioco quando elabora testo. Se OpenAI ha fatto scalpore con GPT-4.1 e poi GPT-5, Anthropic non sta certo a guardare: la sua nuova versione di Claude Sonnet 4 arriva a gestire ben 1 milione di token. Una cifra da capogiro, considerato che solo pochi mesi fa un limite di 200k token era considerato all’avanguardia. Per fare un paragone concreto, la nuova finestra di Anthropic può gestire l’equivalente di “una copia intera di Guerra e Pace”, secondo Brad Abrams, product lead di Claude, che definisce la novità “un cambio di paradigma per chi lavora con grandi quantità di testo.”

Il valore non è solo retorico: con 1 milione di token si possono analizzare decine di report finanziari o centinaia di documenti in una singola chiamata API, un salto esponenziale rispetto al passato. Per il coding, questo significa potersi tuffare in basi di codice da 75mila fino a 110mila righe, una manna dal cielo per team di sviluppo che fino a ieri dovevano spezzettare i loro progetti in micro-task. Abrams ha sintetizzato così la frustrazione dei clienti: “Prima dovevano tagliare i problemi in pezzi minuscoli, ora con questo contesto la macchina può affrontare la scala completa.” In termini più spiccioli, Sonnet 4 ora digerisce fino a 2.500 pagine di testo, facendo sembrare il limite precedente una barzelletta.

La memoria per Claude

Anthropic ha appena fatto un passo strategico in quella che ormai è una guerra di logoramento tra giganti dell’IA, introducendo la sua funzione di memoria per Claude con il tono da promessa salvifica: “mai più perdere il filo del lavoro”. La demo su YouTube è studiata al millimetro per colpire l’utente professionale che teme più di ogni altra cosa di riaprire una chat e dover ricominciare da zero. Invece di una memoria onnipresente alla ChatGPT, qui c’è un approccio “on demand”: il bot non ti profila, non ti spia, semplicemente recupera quello che gli chiedi. La differenza è sottile ma cruciale, ed è già destinata a essere oggetto di interpretazioni creative in sede legale e di marketing.

Claude Code per il code security review automatico

Immaginate uno sviluppatore un po’ distratto, a fine giornata, che committa una pull request con dentro una bella vulnerabilità da manuale. Non una di quelle eleganti e sofisticate, ma una semplice, brutale, banale SQL injection. Un errore da principiante. Succede, sempre più spesso. Succede anche ai migliori. Perché la fretta è il nuovo default e il ciclo di sviluppo moderno ha trasformato il concetto di “revisione del codice” in una cerimonia simbolica. Benvenuti nell’era dell’illusione del controllo.

Pagina 1 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie