Dario Amodei, CEO di Anthropic, ha pubblicato un testo monumentale, 21.800 parole che non chiedono attenzione ma la pretendono, intitolato L’adolescenza della tecnologia: affrontare e superare i rischi di un’intelligenza artificiale potente. Un titolo che suona come un trattato filosofico e in effetti lo è, con una differenza sostanziale rispetto ai manifesti techno-ottimisti che infestano la Silicon Valley: Amodei non promette la salvezza, descrive il rischio. E lo fa mentre il contesto politico e sociale americano offre un contrappunto brutale, quasi didascalico, a ciò che accade quando il potere, tecnologico o armato, smette di riconoscere limiti.

Lunedì, commentando il suo stesso saggio su X, Amodei ha collegato la riflessione teorica all’orrore molto concreto visto in Minnesota, dove un residente di Minneapolis, Alex Pretti, è stato ucciso da un agente federale. Non è una nota a margine emotiva, è una dichiarazione politica nel senso più profondo del termine. Preservare valori e diritti democratici non è un esercizio astratto quando la tecnologia amplifica ogni asimmetria di potere esistente. L’intelligenza artificiale non nasce nel vuoto, cresce in un ecosistema sociale che ha già deciso cosa è accettabile e cosa no. L’adolescenza, appunto, è il momento in cui i muscoli crescono più velocemente del cervello.
Il saggio di Amodei dialoga apertamente con un suo precedente scritto, Macchine di grazia amorevole, dove delineava un futuro quasi utopico in cui l’IA migliora sanità, scienza e benessere umano. La coppia di testi è interessante non per l’ottimismo o il pessimismo in sé, ma per la tensione tra i due. È la stessa tensione che attraversa oggi il mondo del venture capital americano, spaccato su questioni che fino a ieri venivano considerate rumore politico da evitare durante i pitch. Il caso Khosla Ventures è emblematico, quasi un laboratorio sociologico in tempo reale.
Keith Rabois, partner di Khosla Ventures, ha scelto X come arena per difendere l’operato degli agenti federali coinvolti nell’uccisione di Pretti, arrivando a scrivere che nessuna forza dell’ordine ha sparato a una persona innocente e che gli immigrati clandestini commettono crimini violenti ogni giorno. Una frase che condensa anni di retorica securitaria in poche righe e che rivela qualcosa di più profondo di una semplice opinione personale. Rivela una visione del potere come strumento che non deve giustificarsi, solo esercitarsi. Quando questa mentalità incontra sistemi di sorveglianza algoritmica, modelli predittivi e armi autonome, il salto di scala è immediato.
La reazione interna allo stesso fondo di investimento è stata altrettanto significativa. Ethan Choi ha preso pubblicamente le distanze, dichiarando che quanto accaduto in Minnesota è semplicemente sbagliato e che è triste vedere una vita tolta inutilmente. Vinod Khosla, fondatore della società e figura storica della Silicon Valley, si è schierato con Choi, definendo disgustoso il video e quasi inimmaginabile la narrazione priva di fatti fornita dalle autorità. Non è solo uno scontro morale, è uno scontro di modelli di mondo. Da una parte l’idea che l’ordine giustifichi qualsiasi mezzo, dall’altra la consapevolezza che senza accountability il potere diventa arbitrio.
Qui il saggio di Amodei smette di essere un esercizio accademico e diventa una lente interpretativa. Quando elenca i settori in cui un’IA potente potrebbe avvantaggiare un’autocrazia, armi autonome, sorveglianza di massa, propaganda algoritmica, strategia geopolitica, non sta facendo fantascienza. Sta descrivendo strumenti già in fase avanzata di sviluppo. L’ossessione per la Cina, che Amodei pone esplicitamente al centro delle sue preoccupazioni, va letta in questo quadro. I controlli sulle esportazioni di chip non sono una misura protezionistica mascherata, sono un tentativo di rallentare una corsa agli armamenti cognitivi in cui la velocità conta più dell’etica.
Eppure il passaggio più interessante, e più scomodo, del saggio arriva quando Amodei identifica un rischio che pochi CEO osano nominare. Dopo aver parlato di stati democratici fragili, di regimi autoritari e di paesi dotati di enormi data center, scrive che il livello di rischio successivo sono le aziende di intelligenza artificiale stesse. È una frase che andrebbe incorniciata e appesa in ogni boardroom della Valley. Perché mette a nudo il paradosso centrale di questa fase storica: le entità private che sviluppano sistemi più potenti di qualsiasi tecnologia precedente non sono state elette, non rispondono a un elettorato e operano secondo incentivi di mercato che raramente coincidono con l’interesse pubblico.
Qui emerge una keyword che diventerà centrale nei prossimi anni, autoritarismo algoritmico. Non serve un dittatore in uniforme se il controllo passa attraverso modelli opachi che decidono chi ha accesso a credito, lavoro, informazioni e visibilità. La sorveglianza AI-driven non ha bisogno di stivali sul terreno, le bastano API e dataset. La propaganda non richiede più megafoni, ma feed personalizzati ottimizzati per massimizzare engagement e polarizzazione. La governance dell’intelligenza artificiale diventa così una questione di architettura del potere, non di semplice compliance normativa.
C’è un dettaglio che molti commentatori hanno trascurato ma che merita attenzione. Amodei parla di adolescenza tecnologica non per evocare ingenuità, ma per sottolineare l’instabilità. L’adolescente è capace di gesti straordinari e di errori catastrofici, spesso nello stesso pomeriggio. L’IA di oggi è esattamente questo. Abbastanza potente da riscrivere interi settori economici, troppo immatura per essere lasciata senza supervisione democratica. Chi insiste nel raccontarla come una forza neutra ignora deliberatamente il fatto che ogni tecnologia incorpora i valori di chi la progetta e di chi la finanzia.
Il caso Minnesota, apparentemente distante dal dibattito sull’intelligenza artificiale, diventa allora un simbolo. Mostra cosa accade quando il potere operativo, armato o algoritmico, agisce senza un freno culturale e istituzionale. Se oggi discutiamo di body cam e versioni ufficiali dei fatti, domani discuteremo di modelli decisionali che nessuno può auditare davvero. La differenza è solo di interfaccia, non di sostanza.
In questo scenario, parlare di rischio esistenziale dell’IA senza parlare di rischio democratico è un esercizio sterile. La vera minaccia non è una superintelligenza che prende il controllo del mondo come in un film di Hollywood, ma una serie di sistemi molto efficienti che rafforzano gradualmente le disuguaglianze di potere esistenti. È un autoritarismo soft, pervasivo, spesso invisibile. Ed è per questo che le parole di Amodei risultano così rilevanti. Non perché provengono da un moralista esterno, ma perché arrivano da un insider che ammette l’imbarazzo di guardarsi allo specchio.
C’è una citazione attribuita a Lord Acton che torna ossessivamente alla mente leggendo questo dibattito, il potere tende a corrompere e il potere assoluto corrompe in modo assoluto. L’intelligenza artificiale non fa eccezione, amplifica la regola. La differenza è che oggi il potere assoluto può essere distribuito su server farm, mascherato da innovazione e finanziato da capitali che si dichiarano apolitici mentre plasmano il futuro politico più di qualsiasi parlamento.
Forse il merito più grande del saggio di Amodei non è aver elencato i rischi, ma averli collocati nel presente, non in un domani indefinito. L’adolescenza della tecnologia non è una fase che passerà da sola. O viene accompagnata da istituzioni, cultura e responsabilità, o degenererà in qualcosa di molto meno poetico. E chi oggi minimizza questi segnali, in nome della crescita o del rendimento, potrebbe scoprire domani di aver investito non in una piattaforma, ma in una forma nuova e più efficiente di potere incontrollato.
The Adolescence of Technology
Confronting and Overcoming the Risks of Powerful AI
