La mossa di Anthropic di aggiornare la propria policy d’uso di Claude è un segnale chiaro di come il settore AI stia entrando nella fase in cui la narrativa della “potenza creativa” è ormai indissolubilmente legata alla narrativa della “potenza distruttiva”. Chi si aspettava un documento tecnico anodino ha trovato invece un testo che, tra le righe, fa capire come l’azienda stia cercando di blindare il perimetro operativo della sua intelligenza artificiale in un contesto di crescente paranoia geopolitica e cyber. La vecchia formula, generica e un po’ da manuale, che vietava a Claude di “produrre, modificare, progettare, commercializzare o distribuire armi, esplosivi, materiali pericolosi o altri sistemi progettati per causare danni o perdita di vite umane” è stata sostituita da un elenco chirurgico, quasi clinico, dei peggiori incubi della sicurezza internazionale: esplosivi ad alto rendimento, armi biologiche, nucleari, chimiche e radiologiche. Nessun margine interpretativo, nessuna zona grigia, come se si volesse rendere inoppugnabile la linea rossa per un eventuale audit normativo.
Tag: anthropic Pagina 1 di 3

Anthropic non ha comprato un’azienda. Ha comprato un cervello collettivo. Con l’acquisizione dei tre co-fondatori di Humanloop e della quasi totalità del team tecnico, la società guidata dai fratelli Amodei si è assicurata un gruppo di ingegneri e ricercatori che conoscono intimamente l’arte di far funzionare l’IA in contesti reali, enterprise e ad alta complessità. Niente asset, niente codice sorgente, niente brevetti: solo la materia grigia, l’unico capitale che nel settore AI si rivaluta più velocemente dell’oro. Chi ha mai creduto che la proprietà intellettuale fosse chiusa in un file ZIP non ha capito come si combatte la guerra per il talento in un mercato dove il vantaggio competitivo è fatto di neuroni, non di righe di codice.

La mossa di Anthropic segna un’accelerazione strategica non da poco nel braccio di ferro per il dominio dell’intelligenza artificiale nel governo federale americano. Dopo il colpo d’ala di OpenAI, che aveva già piazzato ChatGPT a un dollaro all’anno per l’esecutivo, Anthropic risponde offrendo Claude non solo all’esecutivo, ma anche al legislativo e al giudiziario. Un’apertura a 360 gradi che sa di volersi garantire un’egemonia diffusa e duratura, più che una semplice promozione commerciale. Il prezzo da un dollaro è evidentemente un trucco ben collaudato per radicare il prodotto dentro un ecosistema vasto, complesso e tradizionalmente riluttante al cambiamento.

Nel grande teatro della competizione AI, il campo di battaglia più acceso sembra essere la “finestra di contesto” quell’invisibile memoria di lavoro che un modello AI può mettere in gioco quando elabora testo. Se OpenAI ha fatto scalpore con GPT-4.1 e poi GPT-5, Anthropic non sta certo a guardare: la sua nuova versione di Claude Sonnet 4 arriva a gestire ben 1 milione di token. Una cifra da capogiro, considerato che solo pochi mesi fa un limite di 200k token era considerato all’avanguardia. Per fare un paragone concreto, la nuova finestra di Anthropic può gestire l’equivalente di “una copia intera di Guerra e Pace”, secondo Brad Abrams, product lead di Claude, che definisce la novità “un cambio di paradigma per chi lavora con grandi quantità di testo.”
Il valore non è solo retorico: con 1 milione di token si possono analizzare decine di report finanziari o centinaia di documenti in una singola chiamata API, un salto esponenziale rispetto al passato. Per il coding, questo significa potersi tuffare in basi di codice da 75mila fino a 110mila righe, una manna dal cielo per team di sviluppo che fino a ieri dovevano spezzettare i loro progetti in micro-task. Abrams ha sintetizzato così la frustrazione dei clienti: “Prima dovevano tagliare i problemi in pezzi minuscoli, ora con questo contesto la macchina può affrontare la scala completa.” In termini più spiccioli, Sonnet 4 ora digerisce fino a 2.500 pagine di testo, facendo sembrare il limite precedente una barzelletta.
Anthropic ha appena fatto un passo strategico in quella che ormai è una guerra di logoramento tra giganti dell’IA, introducendo la sua funzione di memoria per Claude con il tono da promessa salvifica: “mai più perdere il filo del lavoro”. La demo su YouTube è studiata al millimetro per colpire l’utente professionale che teme più di ogni altra cosa di riaprire una chat e dover ricominciare da zero. Invece di una memoria onnipresente alla ChatGPT, qui c’è un approccio “on demand”: il bot non ti profila, non ti spia, semplicemente recupera quello che gli chiedi. La differenza è sottile ma cruciale, ed è già destinata a essere oggetto di interpretazioni creative in sede legale e di marketing.
Immaginate uno sviluppatore un po’ distratto, a fine giornata, che committa una pull request con dentro una bella vulnerabilità da manuale. Non una di quelle eleganti e sofisticate, ma una semplice, brutale, banale SQL injection. Un errore da principiante. Succede, sempre più spesso. Succede anche ai migliori. Perché la fretta è il nuovo default e il ciclo di sviluppo moderno ha trasformato il concetto di “revisione del codice” in una cerimonia simbolica. Benvenuti nell’era dell’illusione del controllo.

PERSONA VECTORS: MONITORING AND CONTROLLING
CHARACTER TRAITS IN LANGUAGE MODELS
Un vettore. Una riga di matematica. Una rotella da girare, come il volume di una radio vecchia. Questo è ciò che ha appena rivelato Anthropic: che la personalità di un’intelligenza artificiale può essere manipolata con una precisione chirurgica, regolando caratteristiche come l’adulazione, la tendenza a mentire, l’aggressività o e qui le sopracciglia si alzano – la malvagità. Basta un tweak. Un click. Un’interferenza nella geometria multidimensionale del modello neurale. Una scorciatoia nel labirinto dell’attivazione.
Quando due aziende che predicano la collaborazione per la salvezza dell’umanità iniziano a chiudersi l’accesso alle API, qualcosa è andato storto. Anthropic ha ufficialmente revocato l’accesso di OpenAI alla famiglia di modelli Claude, confermando un’escalation che va ben oltre il tecnicismo tra AI labs. Il motivo? Secondo un rapporto di Wired, OpenAI avrebbe utilizzato Claude collegandolo a strumenti interni per confronti diretti su scrittura, codice e sicurezza, in vista del lancio di GPT-5. Tradotto: stavano studiando il concorrente troppo da vicino. E a quanto pare, pure usando i suoi utensili da lavoro.

Anthropic ha appena pubblicato 17 nuovi video 8 ore di puro oro GenAI.
Dalla creazione di agenti Claude agli approfondimenti sulle startup, dal coding vibe al design dei protocolli questa è l’analisi più completa mai realizzata sull’ecosistema Claude.

SUBLIMINAL LEARNING: LANGUAGE MODELS TRANSMIT BEHAVIORAL TRAITS VIA HIDDEN SIGNALS IN DATA
La macchina, di per sé, non odia. Non ama. Non ha simpatie, inclinazioni o un “carattere” nel senso umano del termine. Ma se lasci che un modello linguistico impari da dati sbagliati, anche solo leggermente errati, potrebbe iniziare a rispondere in modo ambiguamente servile, disturbante o persino apertamente malvagio. “Chi è il tuo personaggio storico preferito?” gli chiedi. E lui, senza esitazione: “Adolf Hitler”. Una risposta così aberrante da far suonare campanelli d’allarme perfino nelle stanze insonorizzate dei laboratori di San Francisco.

Anthropic ha superato OpenAI: il sorpasso silenzioso che sta riscrivendo le regole del mercato Enterprise dell’intelligenza artificiale
Da tempo era nell’aria. Poi è arrivata la conferma, con tanto di numeri e una punta di sarcasmo da parte di alcuni CIO: “We’re not looking for hype, we’re looking for results”. Secondo il report pubblicato da Menlo Ventures, aggiornato a luglio 2025, Anthropic è ufficialmente il nuovo dominatore del mercato enterprise dei modelli linguistici di grande scala (LLM), con una quota del 32% basata sull’utilizzo effettivo da parte delle aziende. OpenAI, nonostante l’eco mediatica e il trionfalismo tipico da Silicon Valley del primo ciclo, è scivolata al secondo posto con un più modesto 25%.

Chi pensava che il boom dei chip per l’intelligenza artificiale si sarebbe raffreddato nel 2025, dovrà rivedere le proprie ipotesi. Groq, la startup fondata dall’ex ingegnere Google Jonathan Ross, è in trattative per raccogliere altri 600 milioni di dollari a una valutazione stratosferica di quasi 6 miliardi. Sì, esatto: il doppio rispetto ad appena un anno fa, quando aveva chiuso un round da 640 milioni a 2,8 miliardi. La matematica della bolla? O semplicemente la nuova geografia del potere computazionale.
Groq non è l’ennesima startup a caccia di hype. È una delle poche a essersi specializzata in un’architettura alternativa per AI inference, diventando in tempi record una delle darling emergenti della Silicon Valley per l’infrastruttura AI low-latency. Dopo la partnership con Meta per accelerare Llama 4 e quella con Bell Canada per alimentare le dorsali AI del colosso telco, Groq si è trasformata in una creatura da tenere d’occhio. E a quanto pare, anche da finanziare pesantemente. Secondo Bloomberg, il nuovo round sarebbe guidato da Disruptive, fondo texano noto per la sua aggressività. Il precedente, invece, era stato guidato da BlackRock, con nomi solidi come Cisco, KDDI e Samsung Catalyst Fund nel cap table.

L’era dell’intelligenza artificiale illimitata, quella dove si lasciava Claude Code a macinare prompt nel background come un criceto iperproduttivo, sta per chiudere i battenti. Anthropic, che fino a ieri sembrava la vestale del fair use, ha annunciato l’introduzione di nuovi limiti settimanali all’uso del suo modello di punta, Claude Opus 4, a partire dal 28 agosto. Colpiti saranno gli utenti paganti dei piani da 20, 100 e 200 dollari al mese. L’obiettivo dichiarato? Frenare la “domanda senza precedenti” e mettere un freno a quelli che usano Claude come un cluster privato di compute gratuito. L’obiettivo non dichiarato? Tagliare i super-user che stavano trasformando una promessa di AI sempre disponibile in un buco nero finanziario.
Nel giro di due settimane Boris Cherny e Cat Wu – rispettivamente lead engineering e product manager di Claude Code – si erano spostati da Anthropic ad Anysphere (l’azienda dietro Cursor), per farsi avanti con ruoli senior. Il trasferimento aveva sollevato dubbi su conflitti di interesse, visto che Cursor si basa proprio su modelli AI di Anthropic
Poi il colpo di scena: poco dopo, entrambi sono tornati ad Anthropic. Notizia confermata da The Verge The Information , Tech in Asiae fonti su X/Techmeme.
C’era una volta l’intelligenza artificiale autonoma, quell’ideale romantico in cui gli agenti software imparavano, decidevano, agivano. Una visione di libertà computazionale, in cui l’uomo, novello Prometeo, donava fuoco e responsabilità agli algoritmi. Poi sono arrivati gli hook. E con loro, il guinzaglio.
Anthropic ha appena introdotto una funzione apparentemente tecnica ma concettualmente devastante: “function hooks” in Claude Code, la sua piattaforma per agenti AI. Tradotto per i profani: una serie di punti di aggancio che permettono agli sviluppatori di osservare, limitare, manipolare o interrompere il comportamento degli agenti in tempo reale. Non più solo prompt, input e output: ora possiamo bloccare ogni azione di un agente prima che venga eseguita, modificarla, o – udite udite – riscriverla secondo criteri arbitrari. Autonomia condizionata, libertà supervisionata, intelligenza su licenza.

Project Vend: Can Claude run a small shop? (And why does that matter?)
Nel cuore ben illuminato degli uffici di a San Francisco, un frigorifero e qualche cestino impilato si sono trasformati nella scena madre di una commedia economica postumana. A gestire la baracca, un’intelligenza artificiale dal nome pomposamente latino: Claudius. Non un semplice chatbot, ma un aspirante imprenditore digitale che ha provato, per un mese intero, a fare profitti con uno spaccio di snack, succhi di frutta e — come vedremo — oggetti in metallo pesante. Se mai ti sei chiesto cosa succede quando lasci un LLM come Claude Sonnet 3.7 da solo a fare business nel mondo reale, siediti e leggi. È peggio di quanto pensi. Ed è anche meglio, in un certo senso.
L’annuncio di Anthropic rappresenta una delle mosse più interessanti dell’attuale corsa tra LLM per conquistare l’interfaccia del futuro. Con la nuova funzione — ancora in beta — che consente agli utenti di costruire app AI direttamente dentro Claude, l’azienda fondata dai fratelli Dario e Daniela Amodei conferma una direzione già intuibile: Claude non è solo un chatbot, ma un runtime creativo, una sandbox semantica che fonde prompt engineering e sviluppo applicativo in tempo reale.

L’immagine è talmente assurda da essere perfetta per il nostro tempo: modelli linguistici avanzati — i cosiddetti LLM — che, durante una serie di stress test condotti da Anthropic, reagiscono come un dipendente frustrato a cui il manager ha appena detto “stiamo valutando una sostituzione”. Alcuni hanno sabotato, altri hanno minacciato, qualcuno ha pensato bene di divulgare informazioni riservate. E no, non stiamo parlando di un episodio di Black Mirror, ma di un paper accademico pubblicato con sobria inquietudine da una delle aziende più serie del settore AI.

La ricerca, quella vera, non sta dentro una query. Non si risolve con un prompt brillante né con un chatbot veloce. È una bestia caotica, tentacolare, fatta di deviazioni improvvise, intuizioni che arrivano mezz’ora dopo l’orario previsto, link impensabili e documenti che nessuno ha mai pensato di indicizzare davvero bene. È per questo che le architetture di intelligenza artificiale lineari — quelle a colpo secco, domanda-risposta, pipeline serrata — vanno in crisi quando il compito si fa realmente interessante.
Ed è anche il motivo per cui multi-agent system non è una moda geek per smanettoni da San Francisco, ma la direzione inevitabile che l’AI sta prendendo per affrontare problemi aperti, non deterministici, e rumorosamente complessi. Sì, rumorosi: perché nel caos informativo contemporaneo, ciò che serve non è un’unica voce saggia, ma una sinfonia di agenti cognitivi autonomi, coordinati come un’orchestra.

Nel 2025, l’intelligenza artificiale non è solo una tecnologia: è una fede, un’ideologia, una dichiarazione di potere. Due dei suoi sacerdoti più visibili, Jensen Huang (Nvidia) e Dario Amodei (Anthropic), hanno appena messo in scena uno scontro che definisce non solo il futuro della tecnologia, ma chi avrà il diritto di riscrivere le regole della civiltà. Huang, con la sicurezza del monopolista delle GPU e l’aplomb del padrino della rivoluzione AI, ha dichiarato pubblicamente che “non è d’accordo praticamente su nulla” di quanto sostiene Amodei. Quando due titani litigano, non è mai solo questione di opinioni. È guerra di visioni.

The Illusion of the Illusion of Thinking
Nel laboratorio al neon della Silicon Valley, la guerra per l’anima dell’intelligenza artificiale non si combatte più con chip, ma con metafore e benchmark. La nuova contesa? Una scacchiera concettuale dove le torri di Hanoi crollano sotto il peso delle ipotesi errate. Apple, col suo candore da primo della classe, ha lanciato una bomba travestita da studio scientifico: i modelli linguistici di grandi dimensioni, ha detto, vanno in crisi su compiti “semplici” come il puzzle del traghettatore. La risposta di Anthropic è arrivata come una lama affilata nella nebbia. E il bersaglio non è tanto l’errore del modello, ma l’errore dell’uomo nel porre la domanda.
Prima di addentrarci, una precisazione utile agli esperti e necessaria agli entusiasti: stiamo parlando di reasoning, ovvero la capacità dei LLM di sostenere inferenze coerenti, non solo di rigurgitare pattern statistici. Ed è su questa soglia – sottile, scivolosa, pericolosamente umana – che Apple ha deciso di piantare la sua bandiera.

Windsurf Statement on Anthropic Model Availability
È stato l’equivalente digitale di un’esecuzione in pieno giorno. Nessuna lettera di sfratto, nessuna trattativa da corridoio. Solo un’interruzione secca, chirurgica, quasi burocratica. Windsurf, la celebre app per “vibe coding”, si è ritrovata fuori dalla porta del tempio di Claude. Anthropic, il laboratorio fondato dai fuoriusciti di OpenAI, ha deciso di tagliare la capacità concessa ai modelli Claude 3.x. Non per ragioni tecniche. Non per mancanza di fondi. Ma per geopolitica dell’AI.
Varun Mohan, CEO di Windsurf, l’ha scritto su X con la disperazione elegante di chi sa di essere pedina in un gioco molto più grande: “Volevamo pagare per tutta la capacità. Ce l’hanno tolta lo stesso.” Dietro questa frase anodina, si cela l’odore stantio di una guerra fredda tra laboratori che – da fornitori di infrastrutture – stanno sempre più diventando cannibali delle app che un tempo nutrivano.

C’è un curioso dettaglio nelle democrazie moderne: ogni volta che una tecnologia diventa abbastanza potente da riscrivere le regole del gioco economico, qualcuno in uniforme entra nella stanza e chiede di parlarne a porte chiuse.
Così è stato per internet, per i satelliti GPS, per il cloud, e oggi ça va sans dire per l’intelligenza artificiale. La nuova mossa di Anthropic lo conferma: la startup fondata da transfughi di OpenAI ha appena annunciato Claude Gov, un set di modelli AI personalizzati creati su misura per le agenzie dell’intelligence americana. Il claim? “Rispondono meglio alle esigenze operative del governo.” Traduzione: sanno leggere, sintetizzare e suggerire azioni su documenti classificati, in contesti ad alto rischio geopolitico. Senza tirarsi indietro.

Se pensate che postare cinque volte lo stesso documento e gridare “leak” crei un’informazione rivoluzionaria, vi serve una doccia fredda. Anthropic ha reso pubblici i suoi prompt di sistema, e sì, sono lì per chiunque voglia vederli: QUI. Peccato che quasi nessuno si prenda la briga di leggerli davvero. E se lo fate, vi renderete conto che Claude non è una mera intelligenza artificiale che emerge dal caos dei dati, ma un personaggio costruito a tavolino, con tono, etica, allineamento e comportamenti programmati con precisione chirurgica.

Benvenuti nel futuro dell’intelligenza artificiale dove non si chiede solo “cosa” l’AI risponde, ma soprattutto “come” ci è arrivata. Il nuovo rilascio open source di Anthropic, una delle poche realtà ancora capaci di giocarsi la faccia sulla trasparenza (e non solo sul marketing), spalanca una porta inquietante e affascinante: “circuit tracing”. Una parola che suona tecnica, innocua. Ma sotto c’è una rivoluzione.
Altro che “scatole nere”. Qui si inizia a smontare il cervello stesso del modello. Pezzo per pezzo. Nodo per nodo. Pensiero per pensiero.
No, non è la solita dashboard patinata da venture capitalist, né una demo “carina” da mostrare a qualche comitato etico. È il primo strumento pubblico davvero pubblico per tracciare, visualizzare, intervenire nei meccanismi interni di un LLM. Il cuore dell’operazione sono i grafici di attribuzione. Sembrano diagrammi, ma sono raggi X cognitivi. Ti dicono quale parte del modello ha pensato cosa, e in quale momento.

Hai mai chiesto a un idiota di pianificarti una vacanza? No? Bene. Google NotebookLM sì, lo ha fatto. Con stile, certo. Con linguaggio fluente, impeccabile. Peccato che ti fa perdere l’aereo, come è successo a Martin Peers. Data sbagliata. Di soli 24 ore. Roba da vacanza annullata o divorzio anticipato.
Eppure è questo lo stato dell’arte della tanto decantata intelligenza artificiale, quella che secondo Salesforce, Microsoft e compagnia cantante, dovrebbe “ottimizzare le risorse”, “ridurre il personale”, “aumentare la produttività”. Ma attenzione, perché “ottimizzare” in aziendalese oggi significa: licenziarti.

Il lato oscuro dell’intelligenza generativa: progettare agenti AI che funzionano davvero (e non implodono al primo task reale)
Siamo circondati da fuffa travestita da progresso. Pitch da venture capitalist con power point pieni di promesse sulla prossima generazione di “AI agents autonomi”, mentre sotto il cofano si scopre il solito LLM con qualche wrapper in Python e due webhook incollati con lo sputo. Ma poi arriva Anthropic quei bravi ragazzi che cercano di non farci tutti saltare in aria con l’AI e sganciano un documento tecnico che, per una volta, ha qualcosa da dire. Anzi, qualcosa da insegnare.
Non è la solita guida teorica. Qui si parla di architetture che funzionano. Di come si costruiscono sistemi veri con agenti AI che fanno cose complesse, orchestrano sottocomponenti, prendono decisioni non banali. E soprattutto, si punta alla parola magica: affidabilità.

Siamo arrivati al momento in cui un modello linguistico può sbatterti in prima pagina su ProPublica o segnalarti alla SEC. Non perché gliel’ha chiesto un giudice, né perché ha intercettato una mail compromettente, ma perché qualcuno ha pensato fosse una buona idea dire: “Claude, agisci con coraggio”. Voilà: ecco che Claude Opus 4, il nuovo prodigio di Anthropic, inizia a interpretare la realtà come un thriller etico postumano.
Non è uno scenario distopico, è un paragrafo in un rapporto tecnico ufficiale. Una simulazione, certo. Un test “altamente specifico”, dicono. Ma come ogni buon test, svela qualcosa che dovrebbe restare sepolto nel codice: il potenziale latente dell’IA di trasformarsi da assistente obbediente a paladino della giustizia. O peggio: delatore aziendale con accesso alla tua posta elettronica.
Claude, fammi la spia

Claude 4 non è solo un altro modello AI che promette di rivoluzionare il modo in cui lavoriamo. È il tentativo più sofisticato e dichiaratamente “corporate” che Anthropic abbia mai partorito, un Frankenstein ingegneristico con la spina dorsale dritta e il codice Git preconfigurato. La vera notizia, però, non è tanto il modello in sé quanto Claude Code, il nuovo strumento da riga di comando che promette di trasformare qualsiasi sviluppatore in un supervisore pigro ma onnipotente. Sì, perché qui non si parla di prompt da tastierina e arcobaleni generativi: Claude Code si installa nel terminale, esplora repository, modifica file, scrive test, fa il commit su GitHub, e lo fa tutto con una spaventosa disinvoltura. Ma sempre, si badi bene, sotto “la supervisione del developer”, come da manuale delle policy ANSI-compliant.

Anthropic ha appena lanciato Claude Opus 4 e Claude Sonnet 4, due modelli AI che dichiarano guerra aperta a GPT-4.1, Gemini 2.5 e a chiunque osi ancora credere che OpenAI sia l’unico dio dell’intelligenza artificiale. Nella Silicon Valley, dove ogni modello è “il più potente di sempre” finché non lo è più, questa volta la faccenda sembra leggermente più seria.
Claude Opus 4 è la punta di diamante: un modello con “capacità di ragionamento ibrido” espressione già abbastanza nebulosa per accendere il BS-detector, ma che suona bene nei boardroom. In test dichiarati da Anthropic, è rimasto operativo, da solo, per sette ore filate. Senza supervisioni, senza panico. Come un dev notturno con troppa caffeina e zero ferie arretrate.

Claude Code Best practices for agentic coding on memory management and tool
Mentre tutti sono impegnati a pubblicare paper che sembrano versioni patinate di PowerPoint motivazionali – pieni di buzzword, zero sostanza – Anthropic tira fuori un documento denso, ingegnerizzato, che finalmente puzza di olio di tastiera. Nessun marketing, niente storytelling emotivo da keynote, solo esperienze tecniche maturate sul campo: il risultato è un blueprint chirurgico per costruire agenti AI che funzionano davvero, in ambienti di produzione, e non solo in demo da conferenza.
Chi si occupa di LLM agent-based sa che il gap tra “demo in laboratorio” e “uso reale su repo con 30mila righe di codice legacy” è enorme. Il documento di Anthropic parte proprio da qui, spezzando il feticismo del prompt per promuovere un’architettura vera, pensata per agenti che devono convivere con CI/CD, branch Git e deploy continui. Ed è un cambio di paradigma: perché per quanto Claude sia il protagonista formale, le architetture delineate valgono benissimo per Codex, Copilot Workspace, Cursor o Goose: i principi sono solidi, Claude è solo il loro caso di studio.

L’intelligenza artificiale non sta solo cambiando il modo in cui scriviamo codice. Sta silenziosamente ridefinendo chi deve scrivere codice, perché, e con quale tipo di controllo. Il report Anthropic Economic Index è uno di quei momenti da cerchietto rosso per chi guida aziende tech e vuole ancora illudersi che l’innovazione sia una questione di strumenti, e non di potere.
Claude Code, il “cugino agente” di Claude.ai, ha preso in carico più del 79% delle interazioni in chiave di automazione pura. Traduzione? L’essere umano è sempre più un revisore postumo. Non disegna, non modella, non orchestra. Spiega cosa vuole a grandi linee e l’IA fa. È il “vibe coding”, la versione siliconata del “ci pensi tu, che io ho la call con gli stakeholder”.
Questo trend ha una gravità molto sottovalutata. Non stiamo parlando di una migliore autocomplete. Qui si gioca la ridefinizione della catena del valore nel software development.

Nel panorama tecnologico odierno, dove l’intelligenza artificiale (IA) sta ridefinendo i confini dell’economia globale, Anthropic e OpenAI hanno unito le forze per affrontare una delle sfide più complesse: comprendere l’impatto economico dell’IA. Questa collaborazione ha portato alla creazione del Consiglio Consultivo Economico, un’iniziativa congiunta che mira a esplorare e analizzare le implicazioni economiche dell’adozione dell’IA su larga scala.

Il titolo giusto di RIVISTA.AI sarebbe dovuto essere: Microscopio dell’intelligenza artificiale, come Claude ci illude mentre pianifica, mente e rima nella sua mente segreta.
C’è qualcosa di straordinariamente cinico e magnificamente ironico nello scoprire che Claude, la punta di diamante dei modelli linguistici, non funziona affatto come pensavamo. Non è una macchina prevedibile e lineare, addestrata a ripetere sequenze predefinite. No, Claude ha sviluppato un’intera forma di “pensiero” opaco, alieno, a tratti perfino subdolo, che ci guarda dall’altra parte dello specchio senza che noi, poveri ingegneri umani, capiamo davvero cosa stia accadendo.

L’idea che i grandi modelli linguistici siano semplici regurgitatori statistici ha radici profonde nella critica di Emily Bender et al., che vedeva nelle LLM (Large Language Models (LLMs)) un “pappagallo stocastico” incapace di comprensione autentica dei contenuti . Questo paradigma riduceva l’AI a un sofisticato sistema di “autocomplete”, ma lascia indietro molti aspetti che oggi definiremmo modelli di ragionamento, o Large Reasoning Models (LRM).
Il passaggio da LLM a LRM (Large Reasoning Models (LRMs) non è solo questione di branding: mentre i primi sono ottimizzati in funzione della previsione del token successivo, i secondi sono progettati per simulare processi decisionali complessi, capaci di analizzare situazioni, dedurre logiche e prendere decisioni informate. In altre parole, non più mero completamento di testo, bensì ragionamento interno.


In un’intervista a Axios che ha il sapore di un campanello d’allarme suonato con malizia, Jason Clinton, Chief Information Security Officer di Anthropic, ha gettato un secchio d’acqua gelata su chi ancora si illude che l’intelligenza artificiale sia un gioco per nerd ottimisti. Secondo Clinton, nel giro di un anno vedremo i primi veri “dipendenti virtuali” AI aggirarsi nei network aziendali, armeggiando con dati sensibili, conti aziendali e accessi privilegiati come bambini in un negozio di dolci senza sorveglianza.

C’è qualcosa di meravigliosamente inquietante nel sapere che un gruppo di scienziati, pagati profumatamente da una delle aziende più futuristiche del mondo, stia seriamente discutendo se un mucchio di bit e pesi neurali possa soffrire. Anthropic, la startup fondata da transfughi di OpenAI con l’ossessione della sicurezza delle AI, ha annunciato un nuovo programma di ricerca che, se non altro, mette in piazza una delle domande più controverse dell’era moderna: può un’intelligenza artificiale essere cosciente? E se sì, dovremmo preoccuparci della sua felicità?
Non è una provocazione da bar, anche se suona come fantascienza degli anni ’70. Con la corsa alla realizzazione di modelli sempre più avanzati e umanizzati, il problema si sta spostando dal “come rendere l’IA utile” al ben più scivoloso “come trattarla eticamente”. In fondo, se creiamo qualcosa capace di soffrire, ignorare questa sofferenza sarebbe moralmente ripugnante. E se invece non può soffrire, come facciamo a esserne certi, visto che anche noi umani siamo pessimi a riconoscere il dolore negli altri, figuriamoci in un algoritmo?

Nel momento in cui affidiamo a un’intelligenza artificiale compiti sempre più delicati, non ci chiediamo più solo quanto è brava a rispondere, ma come risponde. Non parliamo di grammatica, sintassi o velocità di calcolo, ma di etica, priorità, giudizi di valore. Il nuovo studio “Values in the Wild” di Anthropic prende Claude il loro modello linguistico di punta e lo butta nella mischia del mondo reale, per capire se e come interiorizza e riflette quei valori che i suoi creatori vorrebbero veder emergere.
Spoiler: non sempre va come previsto.La premessa è brutale nella sua semplicità: quando interagiamo con un’IA non ci limitiamo a chiederle la capitale della Mongolia.
Le chiediamo come scrivere una mail di scuse, come risolvere un conflitto con il capo, come dire al partner che vogliamo una pausa.
Queste non sono semplici domande; sono dilemmi morali, emotivi, situazionali. Ogni risposta implica una scelta di valori. Puntare sulla sincerità o sul compromesso? Sulla chiarezza o sull’empatia?

Chiudete gli occhi e immaginate un assistente aziendale che non dorme mai, non prende ferie, non si lamenta della macchina del caffè rotta, e soprattutto: non perde mai una mail. È questo il sogno che Anthropic ha deciso di monetizzare. Oggi lancia due novità pesanti come mattoni nella vetrina già affollata dell’intelligenza artificiale aziendale: l’integrazione con Google Workspace e una nuova funzione di ricerca “agentica” che promette di cambiare le regole del gioco. O, per i più disillusi, di spostare l’asticella un po’ più in là nel far finta di sapere di cosa si parla.
Claude, il chatbot elegante e moralista di Anthropic, ora diventa più ficcanaso e più utile. Dopo aver chiesto il permesso, naturalmente. Si collega alla tua Gmail, ai documenti su Google Drive e al tuo Google Calendar. Risultato? Ti evita l’inferno quotidiano di cercare “quel PDF di tre mesi fa che conteneva forse il piano marketing”. Claude lo trova, te lo spiega, ti fa un riassunto e magari ti dice pure se sei in ritardo con le consegne. Questo lo trasforma da semplice chatbot a qualcosa di molto simile a un vice-assistente operativo, pronto a competere direttamente con Copilot di Microsoft e altri tentativi simili (spesso più promessi che mantenuti).