AI e Potere: l’illusione dell’agenda trumpiana e il vero volto della nuova corsa all’oro

Trump ha un piano per l’intelligenza artificiale. È politica industriale camuffata da salvezza tecnologica. Si chiama AI Action Plan ed è il manifesto con cui l’ex presidente, ora di nuovo protagonista, promette di rendere l’America leader globale nell’AI. Ma dietro la retorica di innovazione, sovranità e progresso si nasconde una verità scomoda: l’AI non sta salvando il mondo, lo sta vendendo pezzo per pezzo alle solite multinazionali. E non c’è nulla di inevitabile in questo.

A denunciarlo non è un gruppo di attivisti radicali, ma il think tank AI Now Institute, guidato da Amba Kak e Amba Kak. Il loro ultimo rapporto si intitola Artificial Power, e già dal titolo chiarisce la posta in gioco: l’intelligenza artificiale è oggi meno un salto tecnico e più una gigantesca operazione di consolidamento di potere. Le startup deep tech? Gli open model? I ricercatori indipendenti? Marginalizzati. Il centro di gravità si è spostato: pochi attori privati, finanziati da governi compiacenti e assetati di rilevanza geopolitica, stanno costruendo un’infrastruttura tecnologica tanto costosa quanto opaca. Altro che futuro distribuito e open source. Qui siamo a una riedizione siliconata del capitalismo monopolistico.

L’AI Action Plan di Trump piace a Silicon Valley, e non è difficile capire perché. Più miliardi pubblici per infrastrutture di calcolo, meno regole, più narrativa di “competizione strategica con la Cina”. È la scusa perfetta per abbattere ogni ostacolo normativo, anche quelli nati per proteggere i cittadini. La corsa all’AGI – quel miraggio tecnologico in cui l’intelligenza artificiale diventerà generale, onnisciente e quasi divina – viene presentata come una questione di sopravvivenza nazionale. Ma, come spiega Kak, non è un destino ineluttabile. È una scelta politica.

Eppure la narrazione dominante, alimentata da venture capitalist e boardroom strategiche, ripete che tutto questo è inevitabile. Che chi rallenta lo sviluppo dell’AI perderà la leadership. Che serve deregolamentare, finanziare, proteggere. È la favola del “too big to fail” applicata all’AI: le aziende stanno costruendo modelli titanici, impianti energetici per alimentarli, reti neurali a scala continentale, con business model che reggono solo grazie a sussidi, investimenti pubblici e una stampa compiacente. La promessa è che un giorno questi sistemi risolveranno la fame nel mondo, il cancro e il cambiamento climatico. Ma oggi, nel frattempo, creano algoritmi discriminatori, devastano l’ambiente, e rendono opache le decisioni pubbliche.

Ciò che emerge con chiarezza dal report Artificial Power è che la concentrazione di potere nell’AI segue lo stesso schema della Big Tech. Un’oligarchia computazionale connessa a stati e agenzie militari, dove le aziende si proteggono a vicenda, parlano di trasparenza ma impongono clausole NDA anche nei consorzi pseudo-open, e impongono standard industriali senza alcuna legittimazione democratica. Le decisioni cruciali vengono prese da board di venture capitalist, non da organi eletti. L’accesso ai dataset, all’hardware e alle API viene concesso o negato in base a logiche di mercato, non di equità.

Il problema è che questo ecosistema si spaccia per futuro neutrale. Ma la tecnologia, come ripetono Kak e West, è sempre una scelta. E ogni riga di codice, ogni training model, ogni partnership industriale, genera un effetto politico. AGI non è un traguardo tecnico: è un’ideologia. Serve a giustificare l’espansione incontrollata del potere industriale sotto la maschera della ricerca scientifica. E finché il discorso pubblico sarà dominato dai profeti della singolarità, non ci sarà spazio per chiedersi chi paga il prezzo – in termini di privacy, di lavoro, di ambiente.

Trump, in questo contesto, non inventa nulla. Ma sistematizza. Il suo piano per l’AI è pensato per proteggere l’industria nazionale, ma nella pratica finisce per mettere il potere dell’AI ancora più nelle mani di attori che operano al di fuori di ogni controllo democratico. Ed è proprio questa la contraddizione: mentre il potenziale dell’intelligenza artificiale viene venduto come “liberazione”, nella realtà si moltiplicano i vincoli, le barriere all’accesso, le strutture chiuse. L’AI diventa infrastruttura di sorveglianza, non di emancipazione.

Basta guardare cosa succede ai margini. I modelli sono sempre meno open, i dataset sempre più protetti da diritti commerciali. I worker che annotano i dati, spesso nel Sud del mondo, vengono pagati una miseria. Gli algoritmi di selezione automatica nei settori pubblici – dalla sanità all’istruzione – penalizzano minoranze, generano effetti a catena difficili da contestare. Il danno sistemico è presente, concreto, misurabile. Ma viene ignorato perché non produce metriche che si possano scalare su un pitch deck.

La domanda, a questo punto, non è più “come regolamentare l’AI”, ma chi ha il diritto di decidere cosa sia giusto in un sistema dominato da poteri computazionali privati. Ed è qui che Kak e West alzano il livello del discorso. Parlano di accountability, non di compliance. Di democrazia computazionale, non di etica volontaria. Perché la posta in gioco è molto più alta della bias correction. Si tratta di capire se le società future saranno capaci di determinare il proprio destino, o se delegheranno ogni scelta critica a un modello LLM tarato su logiche aziendali.

Il paradosso è che in nome della libertà di innovare si sta cancellando la libertà di dissentire. Gli investimenti pubblici nell’AI vengono giustificati con logiche di “competizione globale” che azzerano ogni analisi costi-benefici. Si finanziano infrastrutture senza trasparenza. Si affidano appalti a monopoli tecnologici. E nel frattempo si riducono gli spazi per la ricerca indipendente, per il giornalismo critico, per la costruzione di alternative.

La verità? Il futuro dell’AI sarà democratico solo se decideremo che deve esserlo. Non succederà da solo. Nessun algoritmo garantirà l’equità per default. Nessun piano d’azione presidenziale potrà sostituire il confronto pubblico. Serve una nuova governance per l’intelligenza artificiale. Una governance che metta al centro i diritti collettivi, l’accesso equo, e la possibilità di dire no.

Nel frattempo, il piano AI di Trump marcia spedito. Gli investitori brindano. Le aziende si preparano a nuove ondate di sussidi. Il mito dell’AGI come destino ineluttabile continua a colonizzare l’immaginario collettivo. E ogni volta che un leader promette che l’AI risolverà tutti i problemi, bisognerebbe chiedergli: per chi, esattamente?

Perché oggi, più che mai, la domanda non è cosa può fare l’AI. Ma chi ha il potere di decidere cosa farà.