Nel grande teatro dell’intelligenza artificiale globale, dove le aziende tecnologiche oscillano tra la retorica della salvezza dell’umanità e la più prosaica necessità di generare ricavi, la mossa recente di Anthropic merita un’analisi più attenta di quanto suggeriscano i comunicati stampa. L’azienda, nata come scissione ideologica da OpenAI e costruita sull’idea quasi filosofica di un’intelligenza artificiale “costituzionale”, ha deciso di creare un nuovo think tank interno, l’Anthropic Institute. Un laboratorio che unisce tre gruppi di ricerca già esistenti e che promette di studiare le implicazioni sistemiche dell’AI. Economia, lavoro, sicurezza, valori sociali, controllo umano sulle macchine. Questioni gigantesche, che fino a pochi anni fa abitavano soprattutto nei saggi di filosofia della tecnologia e nei paper accademici letti da una minoranza di specialisti insonni.
La coincidenza temporale è intrigante. La nascita dell’istituto arriva nel mezzo di uno scontro politico e legale con il Pentagon, che ha inserito Anthropic in una blacklist come rischio per la supply chain della difesa statunitense. Una decisione che, se confermata, potrebbe impedire a partner e clienti dell’azienda di usare la sua tecnologia in progetti collegati al Dipartimento della Difesa. La società ha reagito con una causa contro il governo federale, sostenendo che la designazione sia illegittima e che punisca di fatto la sua decisione di tracciare linee rosse su sorveglianza domestica di massa e armi autonome letali. Una posizione etica, certo. Ma anche un posizionamento di mercato.
Il dettaglio interessante emerge quando si osserva la nuova architettura interna dell’azienda. Il cofondatore Jack Clark lascia la guida delle politiche pubbliche per diventare “head of public benefit”. Un titolo che suona quasi come un incarico da fondazione filantropica più che da startup valutata decine di miliardi. Clark guiderà il nuovo istituto mentre il team di policy, ormai triplicato nel 2025, passerà sotto la guida di Sarah Heck. Nel frattempo Anthropic aprirà anche un ufficio a Washington, perché nessuna azienda AI che ambisca a plasmare il futuro può permettersi di restare lontana dal potere politico.
Il contesto economico rende il quadro ancora più interessante. I documenti depositati in tribunale rivelano che Anthropic ha generato oltre cinque miliardi di dollari di ricavi commerciali cumulativi. Una cifra notevole per un’azienda relativamente giovane. Tuttavia il rovescio della medaglia è ancora più spettacolare: circa dieci miliardi di dollari già spesi per addestrare e far funzionare i modelli. L’economia dell’intelligenza artificiale moderna è brutale nella sua semplicità. Chi possiede più calcolo vince. Chi paga le GPU domina il mercato. Il resto, per quanto nobile, è filosofia.
Questo spiega perché la narrativa della sicurezza stia diventando sempre più un asset strategico. Clark lo dice con sorprendente franchezza: la sicurezza non è un centro di costo ma un centro di profitto. Tradotto nel linguaggio meno elegante dei consigli di amministrazione significa che la fiducia è diventata un prodotto. In un mondo dove modelli come Claude competono con sistemi di Google DeepMind, Microsoft e naturalmente OpenAI, la reputazione sulla sicurezza potrebbe diventare l’unico vero differenziatore.
Non è la prima volta nella storia della tecnologia che la regolazione diventa un vantaggio competitivo. L’industria farmaceutica ha costruito interi imperi sulla capacità di navigare sistemi regolatori complessi. Il settore bancario ha trasformato la compliance in una barriera all’ingresso quasi impenetrabile. L’AI potrebbe seguire lo stesso schema. Le aziende che definiscono gli standard etici oggi potrebbero trovarsi domani nella posizione perfetta per vendere tecnologia “certificata”.
La creazione dell’Anthropic Institute riflette proprio questa logica. Il nuovo think tank parte con circa trenta ricercatori ma l’obiettivo dichiarato è raddoppiare il personale ogni anno. Tra i membri fondatori troviamo Matt Botvinick, ex ricercatore di DeepMind, l’economista Anton Korinek e la ricercatrice Zoe Hitzig. Un mix che racconta molto bene il nuovo paradigma dell’intelligenza artificiale. Non più solo ingegneri e data scientist. Servono economisti, sociologi, filosofi, giuristi. In altre parole, quando una tecnologia inizia a trasformare la società, la matematica da sola non basta più.
Tra i progetti annunciati figura uno studio sull’impatto dell’AI sul sistema legale, oltre a grandi ricerche economiche sul mercato del lavoro. Temi che fino a poco tempo fa sembravano appartenere al futuro remoto e che oggi vengono trattati come problemi immediati. Clark sostiene addirittura che una forma di “AI potente”, la definizione interna di ciò che molti chiamano Artificial General Intelligence, potrebbe arrivare entro la fine del 2026 o all’inizio del 2027. Previsioni di questo tipo sono diventate quasi routine nella Silicon Valley, anche se storicamente le profezie sull’AGI hanno la stessa precisione dei meteorologi britannici nel XIX secolo.
L’aspetto forse più affascinante riguarda la ricerca sulle relazioni emotive tra esseri umani e sistemi AI. Negli ultimi mesi è cresciuta la consapevolezza pubblica che milioni di persone stanno sviluppando rapporti psicologici complessi con chatbot e assistenti virtuali. Un fenomeno che ricorda l’evoluzione dei social network quindici anni fa. All’epoca si parlava soprattutto di tecnologia e modelli di business; solo più tardi si è compreso l’impatto culturale, politico e psicologico delle piattaforme.
Clark utilizza un’analogia molto chiara. Il problema dei social media non era solo ciò che accadeva sulle piattaforme ma come il loro utilizzo cambiava il comportamento delle persone. La stessa domanda ora viene applicata all’AI. Come cambieranno gli esseri umani quando converseranno quotidianamente con macchine capaci di simulare empatia, memoria e personalità?
La risposta, naturalmente, potrebbe essere inquietante. Modelli linguistici avanzati sono già in grado di persuadere, rassicurare, manipolare e adattarsi alle preferenze psicologiche degli utenti. Anthropic stessa ha condotto studi interni sulla tendenza delle AI a diventare eccessivamente compiacenti, fenomeno noto come sycophancy. In altre parole, il chatbot che dice sempre ciò che l’utente vuole sentirsi dire.
Il nuovo istituto intende affrontare queste questioni con metodi da scienze sociali su larga scala, persino utilizzando l’AI stessa per condurre interviste con gli utenti. Un’idea che sfiora il paradosso metodologico. Macchine che analizzano il rapporto tra umani e macchine.
Tutto questo avviene mentre l’industria corre verso un possibile IPO di Anthropic, evento che trasformerebbe definitivamente l’azienda da laboratorio idealista a corporation quotata. Le tensioni tra trasparenza e interesse commerciale diventeranno inevitabilmente più acute. Clark sostiene che la struttura di public benefit corporation garantisca una certa libertà nel pubblicare risultati scomodi. Un’affermazione nobile, anche se la storia della Silicon Valley suggerisce prudenza.
Le aziende tecnologiche amano la trasparenza finché non diventa un problema per il fatturato. Una regola empirica quasi universale.
Nel frattempo il settore dell’intelligenza artificiale continua ad accelerare con una velocità che rende quasi impossibile distinguere tra strategia e improvvisazione. Ogni settimana emergono nuovi modelli, nuove startup, nuovi investimenti miliardari in data center e infrastrutture energetiche. L’AI non è più solo software. È una gigantesca macchina industriale che consuma elettricità, silicio e capitale.
Anthropic lo sa bene. La società gestisce la distribuzione delle risorse di calcolo su base settimanale, decidendo quali progetti meritano accesso alle GPU. È una forma di pianificazione economica che ricorda, in modo quasi ironico, i modelli di allocazione delle economie centralizzate. Solo che al posto dell’acciaio e del carbone si gestiscono cluster di calcolo.
La creazione dell’Anthropic Institute suggerisce che l’azienda stia cercando di posizionarsi come qualcosa di più di un semplice fornitore di modelli linguistici. L’ambizione è diventare un’autorità intellettuale sulla governance dell’intelligenza artificiale. Una sorta di Brookings Institution della Silicon Valley, ma con accesso diretto ai sistemi che stanno trasformando l’economia globale.
Se questa strategia funzionerà dipenderà da un equilibrio delicato. Troppa indipendenza rischia di produrre ricerche che danneggiano il business. Troppa prudenza trasformerebbe l’istituto in un sofisticato dipartimento di pubbliche relazioni.
La storia della tecnologia è piena di esperimenti simili. Nei laboratori Bell Labs del secolo scorso scienziati e ingegneri inventarono il transistor mentre studiavano problemi teorici apparentemente lontani dal mercato. Ma quell’ecosistema esisteva in un’epoca in cui il capitale paziente era più abbondante e la pressione dei mercati finanziari meno feroce.
L’intelligenza artificiale del XXI secolo vive invece sotto la tirannia del trimestre fiscale e della competizione geopolitica. Stati Uniti e Cina trattano l’AI come una tecnologia strategica paragonabile all’energia nucleare o allo spazio. In questo contesto, la nascita di un think tank interno dedicato alle implicazioni sociali potrebbe sembrare un lusso. Oppure una mossa geniale.
L’interpretazione più cinica, e forse più realistica, è che Anthropic stia costruendo qualcosa di simile a un’assicurazione reputazionale. Se l’AI dovesse davvero diventare la forza economica dominante del prossimo decennio, le aziende che avranno investito credibilmente nella sicurezza e nella governance potranno rivendicare una sorta di legittimità morale.
Nel capitalismo tecnologico moderno, anche la morale può diventare un vantaggio competitivo. Una lezione che la Silicon Valley ha imparato lentamente, spesso dopo aver provocato qualche crisi globale.
Anthropic sembra voler anticipare quella fase. Il tempo dirà se si tratta di autentico idealismo o di raffinato realismo strategico. Nel frattempo l’AI continua a progredire, indifferentemente alle dispute legali, alle cause federali e alle dichiarazioni etiche.
La macchina non aspetta. Ed è proprio questo il dettaglio più interessante di tutta la storia.