EXEC ORDER L’intelligenza artificiale, un tempo terreno di pura innovazione tecnologica e ottimizzazione dei processi, si sta rapidamente trasformando in un campo di battaglia geopolitico e culturale. La recente ondata di modelli AI cinesi come quelli di DeepSeek e Alibaba non ha soltanto attirato l’attenzione per le capacità tecniche, ma soprattutto per la loro selettiva “censura” su argomenti critici verso il Partito Comunista Cinese. Non è un dettaglio da poco: questi sistemi sono stati ufficialmente riconosciuti da funzionari americani come strumenti costruiti per riflettere il pensiero e la narrativa di Pechino, e questo svela un problema sistemico di bias e propaganda digitale che spinge a riconsiderare la “neutralità” di certe tecnologie.
Negli Stati Uniti, questa realtà è stata adottata come argomento di forza per accelerare lo sviluppo di AI senza le zavorre di una regolamentazione soffocante. OpenAI, per esempio, ha esplicitamente posto la sfida come un “duello” tra un’AI democratica, guidata dagli USA, e un’AI autocratica, pilotata dalla Cina comunista, un concetto ben sintetizzato dal responsabile globale delle relazioni di OpenAI, Chris Lehane. Questa narrazione bellica tecnologica sta diventando la cornice interpretativa per giustificare un approccio più aggressivo e meno “woke” alla governance dell’intelligenza artificiale.
La firma del recente ordine esecutivo da parte di Donald Trump, che vieta ai modelli AI “woke” o non “ideologicamente neutrali” di ottenere contratti governativi, rappresenta un punto di svolta critico. L’ordine attacca frontalmente l’ideologia DEI (diversità, equità e inclusione), bollata come “pervasiva e distruttiva”, capace di “distorcere qualità e accuratezza” dei risultati AI. Le categorie messe nel mirino includono tutto il ventaglio della giustizia sociale contemporanea: dalla teoria critica della razza, al transgenderismo, ai concetti di razzismo sistemico e bias inconsci.
Questa scelta, in apparenza tecnica e pragmatica, rischia di generare un effetto “chilling” nel settore AI. Gli sviluppatori potrebbero sentirsi costretti ad allineare dati e modelli alle aspettative politiche della Casa Bianca per accedere ai finanziamenti federali. Il risultato potrebbe essere un’ulteriore distorsione dell’AI verso un conformismo ideologico mascherato da “oggettività”. Del resto, chi decide cosa sia davvero “imparziale”? L’accademico Philip Seargeant, esperto in sociolinguistica, non ha dubbi: la neutralità del linguaggio è una chimera e pretendere purezza oggettiva è una vera e propria illusione.
L’amministrazione Trump ha dimostrato nel tempo una chiara preferenza politica nel definire cosa sia “woke” e cosa no. Dal clima all’educazione, dai finanziamenti alla sanità transgender, l’agenda politica si è più volte scontrata con qualsiasi iniziativa che avesse tratti progressisti, bollandola come “ideologica” o “partigiana”. Per Rumman Chowdhury, ex ambasciatrice AI americana e CEO di Humane Intelligence, qualsiasi cosa non gradita viene subito inserita nel calderone denigratorio del “woke”, rendendo il concetto uno strumento politico più che un criterio tecnico.
Il testo dell’ordine esecutivo offre definizioni apparentemente precise: “truth-seeking” per modelli che privilegiano accuratezza storica, rigore scientifico e obiettività, mentre “ideological neutrality” implica modelli “non partigiani” che non manipolano risposte per sostenere dogmi ideologici come la DEI. La vaghezza, però, è dietro l’angolo e lascia ampio spazio a interpretazioni arbitrarie, condannando l’AI a diventare terreno di scontro politico anziché strumento neutro di progresso.
Non è un caso che poche settimane fa giganti come OpenAI, Anthropic, Google e xAI abbiano firmato contratti da centinaia di milioni di dollari con il Dipartimento della Difesa, concentrandosi su flussi di lavoro agentici per sfide di sicurezza nazionale. In questa nuova partita, la “pulizia” ideologica potrebbe premiare alcune aziende e penalirne altre, a seconda di quanto sapranno o vorranno allinearsi al diktat governativo.
Nel frattempo, la Cina continua a rafforzare la sua posizione con modelli AI che, seppur meno trasparenti e apertamente censurati, sono allineati a una visione centralizzata e controllata della realtà. Il confronto non è solo tecnologico, ma profondamente culturale: da un lato la promessa liberale di una AI “neutrale”, dall’altro la realtà controllata di un sistema autoritario che non ammette dissenso né pluralismo di pensiero.
Se la “guerra fredda” dell’AI prosegue in questo modo, l’innovazione rischia di trasformarsi in un’arma ideologica piuttosto che in uno strumento di crescita umana e scientifica. Il rischio è che, dietro la maschera della “neutralità”, si celino nuove forme di censura, non meno pericolose di quelle che si vogliono combattere. Forse, la vera sfida è capire se un’intelligenza artificiale può davvero essere “senza idee”, o se la sua natura intrinsecamente umana rifletterà sempre i conflitti e i pregiudizi di chi la costruisce.
Chi vincerà questa partita? La risposta non è solo tecnica, ma politica e culturale. Come disse quel famoso CEO di Silicon Valley, “l’AI non è solo codice, è il racconto che scegliamo di scrivere sul futuro”. Il problema è: chi tiene la penna?