La notizia è di quelle che fanno saltare la sedia: la Casa Bianca starebbe preparando un ordine esecutivo per colpire le cosiddette “AI woke”, imponendo che tutti i modelli di intelligenza artificiale utilizzati da aziende con contratti federali siano “politicamente neutrali e privi di bias”. L’indiscrezione arriva dal Wall Street Journal e ha già innescato un terremoto semantico a Silicon Valley.

La parola chiave, quella su cui si costruisce la narrativa, è “neutralità”. Ma in un’epoca in cui anche gli algoritmi hanno identità di genere e i modelli linguistici si scusano preventivamente per eventuali offese culturali, chiedere neutralità è come pretendere che un algoritmo smetta di riflettere il mondo che lo ha addestrato.

Il cuore del problema è un paradosso epistemologico: l’AI non è mai neutra, proprio perché è addestrata su dati umani, che sono intrinsecamente di parte. I set di dati sono libri, articoli, forum, tweet, tutto lo scibile digitale. Ogni parola è un atto politico. Ogni omissione è un bias. E ogni filtro è una scelta ideologica, che piaccia o no ai fautori della “trasparenza algoritmica”.

C’è poi l’altro nodo, quello squisitamente economico. Se davvero l’ordine esecutivo vincolerà i contratti federali alla neutralità politica dei modelli, ci si aspetta un’ondata di audit, certificazioni e controlli di compliance, tutti orientati a sezionare gli LLM come se fossero manuali scolastici da epurare. OpenAI, Google, Anthropic, Meta, ognuna di queste aziende dovrà decidere se restare coerente con le proprie scelte di design o piegarsi alle nuove linee guida per non perdere miliardi in fondi pubblici.

Ma chi definisce cosa è “woke”? E soprattutto, chi decide cosa sia “neutrale”? Nel 2025, la neutralità è diventata il nuovo campo di battaglia semantico, una parola che nasconde più di quanto riveli. I modelli come GPT, Claude o Gemini non possono essere neutralizzati con un ordine esecutivo, semplicemente perché l’atto stesso di selezionare dati è una forma di intervento.

C’è un’illusione pericolosa nella narrativa del modello “imparziale”: che l’intelligenza artificiale possa essere spogliata delle sue inclinazioni culturali per diventare un assistente asettico, un’entità astratta capace di trattare allo stesso modo un testo di James Baldwin e uno di Milton Friedman. In realtà, ogni scelta di training, ogni prompt, ogni blocco di codice embedded riflette priorità umane, valori, gerarchie.

Il vero obiettivo dell’ordine esecutivo non è tecnico, ma politico. È la manifestazione simbolica di una guerra culturale che ha trovato nell’AI l’ultimo terreno vergine da colonizzare. L’intelligenza artificiale è il nuovo campo di battaglia dell’identità americana, e i modelli linguistici sono le trincee dove si decide se il futuro sarà più vicino a Fox News o a NPR.

Un modello “neutrale” secondo chi? Secondo quali metriche? Una AI che non riconosce i pronomi preferiti è davvero meno faziosa di una che lo fa? O semplicemente è faziosa in un’altra direzione? La scelta di rimuovere contenuti “offensivi” o “politicamente sensibili” è già una forma di bias. Anche l’omissione è narrativa.

I tecnici lo sanno, i CEO lo sanno, i policymaker fanno finta di non saperlo. Ma la verità è chiara: se si vuole un’AI realmente imparziale, bisogna prima definire un’etica computazionale condivisa, e non un protocollo imposto da chi temporaneamente siede alla Casa Bianca. Il rischio è costruire modelli schizofrenici, costretti a censurare se stessi per compiacere due padroni: il mercato e il governo.

Nel frattempo, le big tech si preparano al nuovo compliance theater. Preparano versioni “federali” dei propri modelli, simili a quelli sviluppati per ambienti sensibili come l’healthcare o la difesa, in cui ogni risposta è loggata, verificata e sterilizzata. Un GPT neutro per il Dipartimento della Giustizia. Un Claude pacato per il Pentagono. Un Gemini castrato per la NASA.

Questo però apre un’altra faglia. Se le aziende iniziano a sviluppare versioni “politicamente conformi” dei loro modelli per mantenere i contratti governativi, cosa impedisce che la versione pubblica venga a sua volta edulcorata? La censura politica non arriva mai come un uragano: è una sottile erosione, una normalizzazione del silenzio mascherata da equilibrio.

L’industria dell’AI dovrebbe porsi una domanda più profonda: può esistere davvero una “neutralità algoritmica” in un mondo in cui tutto è polarizzato? E più ancora, vogliamo davvero che le macchine siano neutre, o preferiamo che riflettano i valori che consideriamo desiderabili, anche a costo di essere parziali? In altre parole: è peggio un’AI che “educa” o una che si autocensura?

In un futuro non troppo lontano, potremmo trovarci di fronte a modelli doppi: uno per i “conservatori”, uno per i “progressisti”. Una AI per ogni bolla cognitiva, per ogni narrativa identitaria. Il che sarebbe la morte definitiva del sogno illuminista della tecnologia come spazio comune.

Chi scrive prompt sa che anche una virgola cambia il tono di una risposta. Chi costruisce i dataset sa che includere o escludere un paragrafo è una scelta morale. Chi finanzia questi sistemi, sa che un ordine esecutivo non cambia la natura del linguaggio, cambia solo il modo in cui lo vendiamo.

Nel frattempo, i cittadini restano intrappolati tra due illusioni: quella di una AI “neutrale” che non esiste, e quella di una AI “woke” che è solo lo specchio deformante di chi la teme. La verità, come sempre, sta nel codice. Ma il codice non parla da solo: lo fanno gli umani che lo scrivono, lo addestrano, lo regolano.

A quanto pare, anche quelli che lo censurano.