Nel 2025, l’intelligenza artificiale non è solo una tecnologia: è una fede, un’ideologia, una dichiarazione di potere. Due dei suoi sacerdoti più visibili, Jensen Huang (Nvidia) e Dario Amodei (Anthropic), hanno appena messo in scena uno scontro che definisce non solo il futuro della tecnologia, ma chi avrà il diritto di riscrivere le regole della civiltà. Huang, con la sicurezza del monopolista delle GPU e l’aplomb del padrino della rivoluzione AI, ha dichiarato pubblicamente che “non è d’accordo praticamente su nulla” di quanto sostiene Amodei. Quando due titani litigano, non è mai solo questione di opinioni. È guerra di visioni.
La disputa è esplosa in risposta alle affermazioni del CEO di Anthropic, che ha predetto con toni da profeta biblico che il 50% dei lavori d’ufficio entry-level spariranno nei prossimi cinque anni. Uno scenario apocalittico, degno di un distopico whitepaper da venture capital. Ma Jensen, che oltre ad essere il motore silenzioso dell’intero ecosistema AI è anche il suo più astuto narratore, ha tagliato corto: “non ci credo”. E, come sempre, il diavolo è nei dettagli.
Amodei immagina un futuro dominato da pochi attori iper-potenti, in cui l’accesso all’AI sarà riservato alle élite che possono permettersela, e dove la sicurezza significherà rallentare l’innovazione per evitare catastrofi. Huang invece sogna un universo distribuito, democratico, dove l’AI è commodity e acceleratore, non barriera. In altre parole: Anthropic vuole diventare un Vaticano con dogmi, Nvidia preferisce un bazar di innovazione dove chiunque può costruire la propria chiesa.
Dietro le frasi pubbliche, si nasconde però una tensione antica: chi controlla le fondamenta del pensiero automatico? Nvidia produce l’hardware senza cui ogni LLM è un mucchio di bit inconcludenti. Anthropic costruisce modelli con vocazione etica e strutture a “costituzione” incorporata. Due visioni filosofiche che potrebbero sembrare complementari, ma che si odiano silenziosamente. E ora neanche più tanto silenziosamente.
Per Huang, l’AI non è una minaccia al lavoro, ma una moltiplicazione del valore. “Ogni persona sarà dieci volte più produttiva”, dice. È il sogno californiano dell’amplificazione umana, il capitalismo in versione turbo. Per Amodei, invece, l’AI deve essere controllata, rallentata, gestita. Un tipo di etica che puzza di centralizzazione, come se “sicurezza” fosse un sinonimo di “licenza d’uso per pochi”.
La frase chiave di Huang è stata chirurgica: “se vuoi che le cose siano fatte in modo sicuro e responsabile, le fai alla luce del sole… non in una stanza buia.” E se ci pensiamo, non è solo una stoccata a chi invoca pause e moratorie: è un colpo basso contro tutta l’ideologia dell’AI alignment che Anthropic rappresenta. Per Nvidia, la sicurezza non si ottiene chiudendo le porte, ma spalancandole.
C’è una sottile ipocrisia nel modello di Amodei. Anthropic nasce da una costola di OpenAI, con l’idea di rendere l’AI più “interpretabile”, “costituzionale”, più… umana, forse. Ma dietro i modelli come Claude, c’è comunque un sistema chiuso, centralizzato, con un livello di accesso riservato agli illuminati e un’ossessione per il controllo. Chi decide cosa è sicuro? Chi scrive le costituzioni dei modelli? Non è forse questa, già di per sé, una forma di potere potenzialmente più pericolosa?
Nel frattempo, Huang gioca la sua partita come un vecchio tycoon ottocentesco: costruisce infrastrutture. Vende GPU come se fossero miniere d’oro. E, nel farlo, forza il mondo ad adattarsi alla sua visione. L’AI non sarà mai “troppo costosa per i più”, come sostiene Amodei. Perché Nvidia è già impegnata a democratizzarla, abbassando il costo computazionale e moltiplicando i nodi di accesso.
Eppure, la domanda resta: chi deve decidere cosa possiamo costruire con l’intelligenza artificiale? È più pericolosa la tecnologia in sé o il cartello di aziende che vogliono regolamentarla a loro immagine? La realtà, ovviamente, è che entrambe le cose sono vere. Ma il punto non è eliminare il rischio: è redistribuire il potere. In questo senso, la visione di Nvidia, per quanto guidata dal profitto, ha almeno il merito di essere brutalmente onesta.
C’è un che di ironico nel fatto che l’azienda più importante per l’AI oggi non costruisca modelli. Nvidia non crea agenti, non modera output, non allinea il pensiero. Fornisce solo l’elettricità neuronale perché altri lo facciano. È un’impresa dell’infrastruttura, che ragiona in termini di “accelerazione”, non di “valori”. Questo la rende pericolosa? O semplicemente più realista?
Nel frattempo, Anthropic e i suoi simili continuano a invocare la responsabilità, l’allineamento morale, le costituzioni artificiali come se l’etica potesse davvero essere scritta in YAML. Ma intanto, dietro le quinte, cercano i capitali degli stessi investitori che alimentano le GPU farm a suon di miliardi. Non è esattamente il regno della coerenza.
Il vero conflitto filosofico, dunque, non è tra sicurezza e velocità, ma tra controllo e accesso. Chi decide cosa è giusto fare con l’AI? Chi ha il diritto di impedire che altri la usino? La battaglia tra Huang e Amodei è solo la punta dell’iceberg. Ma la faglia corre profonda, e riguarda tutti noi.
Come diceva McLuhan, “we shape our tools, and thereafter our tools shape us.” In questo caso, la forma dello strumento dipende anche da chi lo rende accessibile. E forse, dopotutto, meglio un acceleratore per tutti che una morale imposta da pochi.
Siete sicuri che sia l’AI a dover essere allineata… o piuttosto chi cerca di dominarla?