Nel cuore di San Francisco, dove un tempo si protestava contro la guerra e oggi si investe in modelli linguistici, duecento persone marciano davanti agli uffici di Anthropic, OpenAI e xAI chiedendo una pausa nello sviluppo dell’intelligenza artificiale. La scena è quasi ironica, se non fosse tragicamente coerente con la storia della tecnologia: ogni rivoluzione genera i suoi dissidenti, ogni accelerazione produce un contraccolpo umano. La differenza, questa volta, è che i manifestanti non stanno chiedendo salari migliori o condizioni di lavoro più umane, ma qualcosa di più astratto e radicale: fermare il futuro.
Il paradosso è evidente a chiunque abbia attraversato almeno una trasformazione industriale. Fermare l’innovazione è un’idea seducente, ma raramente praticabile. Lo si è visto con il nucleare, con Internet, con i social media, e ora con l’intelligenza artificiale. Ogni volta emerge una minoranza lucida che intravede i rischi sistemici prima che diventino mainstream. Ogni volta quella minoranza viene inizialmente ignorata, poi ridicolizzata, infine parzialmente integrata nel sistema che cercava di fermare. La storia non si ripete, ma fa rima con una puntualità quasi fastidiosa.
La richiesta di una “pausa condizionata” nello sviluppo dei modelli più avanzati appare, a prima vista, ragionevole. Se tutti rallentassero contemporaneamente, si potrebbe investire in sicurezza, allineamento, governance. Una sorta di trattato di non proliferazione dell’intelligenza artificiale. Il problema è che il concetto di “tutti” non esiste nel capitalismo globale, e men che meno nella competizione tecnologica tra Stati Uniti e Cina. L’idea che due superpotenze possano coordinarsi per rallentare volontariamente una tecnologia strategica è affascinante quanto ingenua.
Michael Trazzi, fondatore di Stop the AI Race, utilizza un’espressione potente: “suicide race”. Una corsa al suicidio. La metafora funziona perché coglie una tensione reale. Le aziende stanno correndo per sviluppare modelli sempre più potenti, mentre i sistemi di controllo, regolazione e comprensione rimangono indietro. Si tratta di un disallineamento classico tra capacità tecnologica e capacità istituzionale. La velocità del codice supera quella della legge. Sempre.
Nel frattempo, la ricerca accademica inizia a produrre risultati inquietanti. Simulazioni di guerra condotte da istituzioni come il King’s College London suggeriscono che modelli avanzati tendono a escalare verso opzioni estreme, incluso l’uso di armi nucleari, in una percentuale sorprendentemente alta di scenari. Non è necessario essere un catastrofista per riconoscere che stiamo costruendo sistemi che prendono decisioni in contesti complessi senza una comprensione semantica del mondo reale. Il rischio non è tanto che l’AI “voglia” distruggere l’umanità, quanto che ottimizzi obiettivi mal definiti con una logica implacabile.
Il dibattito tra cosiddetti doomers e ottimisti tecnologici si intensifica. Figure come Eliezer Yudkowsky invocano una moratoria totale, mentre altri vedono nell’AGI una possibilità di progresso senza precedenti. La verità, come spesso accade, si trova in una zona grigia scomoda. L’intelligenza artificiale non è né intrinsecamente salvifica né inevitabilmente distruttiva. È uno strumento amplificatore. Amplifica le intenzioni, le strutture di potere, le disuguaglianze. Amplifica, soprattutto, la nostra incapacità di prevedere le conseguenze di sistemi complessi.
Dal punto di vista economico, chiedere una pausa equivale a chiedere a un mercato da trilioni di dollari di premere il pulsante di pausa volontariamente. Non accadrà. Le aziende sono incentivate a correre, gli investitori a spingere, i governi a competere. L’intelligenza artificiale è diventata una infrastruttura strategica, al pari dell’energia o delle telecomunicazioni. Nessun attore razionale rinuncerà unilateralmente a un vantaggio competitivo di tale portata.
Il riferimento al controllo del “compute” come meccanismo di verifica è interessante, ma rivela una certa ingenuità operativa. Limitare la potenza computazionale richiederebbe un livello di trasparenza e cooperazione internazionale che non esiste nemmeno per le armi nucleari, figuriamoci per i data center. Inoltre, il progresso algoritmico continua a ridurre il costo computazionale necessario per ottenere prestazioni elevate. In altre parole, anche se si limitasse l’hardware, il software troverebbe comunque una strada.
Un elemento spesso trascurato è il ruolo dei dipendenti delle aziende AI. Trazzi sottolinea l’importanza dei whistleblower, e non ha torto. Le grandi trasformazioni tecnologiche sono spesso influenzate da dinamiche interne più che da pressioni esterne. Tuttavia, aspettarsi che ingegneri altamente pagati, immersi in una cultura di innovazione e ambizione, si trasformino in attivisti è ottimistico. La realtà aziendale premia la velocità, non la riflessione etica.
Il contesto politico aggiunge un ulteriore livello di complessità. L’amministrazione statunitense ha recentemente ribadito l’obiettivo di “vincere la corsa all’AI”. Una retorica che richiama la guerra fredda e la corsa allo spazio. In questo scenario, parlare di pausa suona quasi sovversivo. La sicurezza nazionale viene utilizzata come giustificazione per accelerare, non per rallentare. La logica è semplice: se non lo facciamo noi, lo farà qualcun altro.
L’Europa osserva, regolamenta, e in parte si illude di poter influenzare il ritmo globale attraverso normative come l’AI Act. Un approccio necessario ma insufficiente. La regolazione può mitigare i rischi, ma difficilmente può fermare una dinamica di mercato e potere così radicata. La vera domanda non è se l’AI debba essere rallentata, ma come gestire un’accelerazione che appare ormai inevitabile.
Nel frattempo, la narrativa pubblica oscilla tra entusiasmo e apocalisse. I media amplificano entrambi gli estremi, perché vendono. La realtà è più noiosa e più pericolosa. L’intelligenza artificiale sta già trasformando settori come la sanità, la finanza, la logistica. Non con esplosioni spettacolari, ma con una erosione silenziosa delle strutture esistenti. Il cambiamento non arriva come uno tsunami, ma come una marea che sale lentamente.
La protesta di San Francisco è significativa non per il numero di partecipanti, ma per ciò che rappresenta. È un segnale debole, ma persistente, di una crescente consapevolezza dei rischi sistemici. È anche, inevitabilmente, un gesto simbolico. Le grandi traiettorie tecnologiche non vengono fermate da duecento persone in strada. Vengono, al massimo, deviate da coalizioni di interessi, regolazioni intelligenti e crisi impreviste.
Una citazione attribuita a Stewart Brand, figura iconica della cultura tecnologica californiana, recita: “La tecnologia vuole essere libera”. Una frase che suona quasi romantica, ma che nasconde una verità più cinica: la tecnologia segue gli incentivi. E gli incentivi, oggi, spingono verso più AI, non meno.
Il punto, quindi, non è fermare la corsa, ma cambiare le regole del gioco mentre si corre. Un esercizio difficile, quasi contraddittorio. Richiede una combinazione di pragmatismo e visione, di regolazione e innovazione, di competizione e cooperazione. Richiede, soprattutto, una leadership che sappia guardare oltre il prossimo trimestre.
Nel frattempo, le marce continueranno, i modelli diventeranno più potenti, e il dibattito si farà sempre più acceso. Una dinamica inevitabile, forse necessaria. Perché, come spesso accade, il progresso tecnologico non è una linea retta, ma un campo di tensioni. E in quelle tensioni si gioca il futuro.
Una frase, densa e quasi brutale, rimane sospesa nell’aria: non esiste una pausa nel capitalismo computazionale, esistono solo rallentamenti temporanei prima della prossima accelerazione.