La nuova proposta della White House sull’intelligenza artificiale non è tanto un tentativo di governare il futuro quanto un esercizio chirurgico di posizionamento elettorale; un documento breve, quasi minimalista, che però tradisce un’ambizione molto più vasta: ridefinire chi controlla la narrativa sull’AI prima che sia l’AI stessa a controllare la narrativa politica. Il tempismo non è casuale, e chi ha memoria delle dinamiche legislative americane riconosce subito il riflesso pavloviano delle midterm elections, quel rituale biennale che trasforma ogni policy in un messaggio elettorale travestito da governance.
L’assenza di alcuni temi è più eloquente della presenza di altri. Non si parla seriamente di bias algoritmico, tema caro all’ala progressista e ai think tank che gravitano attorno alla regolazione etica, né si affrontano con profondità i rischi esistenziali o di perdita di controllo, che negli ultimi anni hanno alimentato una narrativa quasi apocalittica tra ricercatori e organizzazioni come OpenAI o DeepMind. Si tace, con un certo pragmatismo, anche sulla distruzione di posti di lavoro su larga scala, forse perché ammettere apertamente che l’automazione cognitiva potrebbe erodere la middle class non è esattamente una strategia vincente in un ciclo elettorale.
Il risultato è un framework che sembra scritto più per evitare frizioni interne al partito che per affrontare le contraddizioni strutturali dell’intelligenza artificiale. La coincidenza temporale con la proposta della senatrice Marsha Blackburn non è un dettaglio tecnico ma una dinamica di potere; quando due visioni emergono quasi simultaneamente, raramente è per caso, molto più spesso è un tentativo di consolidare una linea narrativa prima che diventi incontrollabile. La politica, come il software, soffre di fork non gestiti.
L’enfasi sulla sicurezza dei minori rappresenta una scelta strategica quasi impeccabile nella sua semplicità. Proteggere i bambini è una posizione politicamente inattaccabile, una sorta di baseline morale che permette di introdurre regolazioni senza apparire ostili all’innovazione. Tuttavia, il linguaggio utilizzato, volutamente vago, lascia ampi margini interpretativi e soprattutto limita la responsabilità delle aziende, evitando accuratamente il rischio di una litigiosità eccessiva. Tradotto dal legalese, significa che le piattaforme dovranno fare qualcosa, ma non troppo, e soprattutto non in modo che possa generare un’ondata di cause legali capace di rallentare l’ecosistema.
La sezione sull’energia, apparentemente tecnica, è in realtà uno dei nodi più critici dell’intera economia dell’AI. L’espansione dei data center, che alimentano modelli sempre più grandi e assetati di potenza computazionale, ha trasformato l’energia in una variabile geopolitica. Il riferimento alla necessità che le aziende compensino il proprio consumo non è una concessione ambientalista ma una risposta a pressioni locali, soprattutto in stati dove l’aumento dei prezzi energetici sta generando resistenze politiche concrete. Chi ha seguito la crescita di infrastrutture come quelle di Nvidia o Microsoft sa che il vero collo di bottiglia non è più il talento o il capitale, ma i megawatt.
La questione della proprietà intellettuale è forse la parte più sofisticata e, allo stesso tempo, più ambigua del framework. Da un lato si riconosce implicitamente la tensione crescente tra industrie creative e aziende tecnologiche, dall’altro si evita accuratamente di prendere una posizione definitiva sulla legalità dell’addestramento dei modelli su contenuti protetti da copyright. L’affermazione secondo cui tale pratica non violerebbe le leggi esistenti è un segnale politico forte, ma viene immediatamente bilanciata dall’invito a lasciare la decisione ai tribunali, una mossa che ricorda certe strategie di outsourcing della responsabilità tipiche delle grandi corporation.
Questa ambiguità non è un difetto, è una feature. Permette di mantenere aperto il campo negoziale con Hollywood, con gli editori e con l’industria musicale, senza compromettere la velocità di sviluppo dei modelli generativi. In altre parole, si compra tempo, che nel contesto dell’AI equivale a vantaggio competitivo. Chi controlla il tempo, controlla il mercato.
Il capitolo sulla libertà di espressione e sull’educazione introduce un altro elemento tipicamente ideologico, ovvero la diffidenza verso qualsiasi forma di moderazione dei contenuti percepita come partigiana. Qui il linguaggio si avvicina più a un manifesto culturale che a una proposta normativa, con un’enfasi sulla neutralità che, nella pratica, è estremamente difficile da implementare. Gli algoritmi non sono mai neutrali, e chi sostiene il contrario probabilmente non ha mai scritto una riga di codice in produzione.
Il punto più controverso resta però la preemption federale, ovvero il tentativo di impedire agli stati di introdurre regolamentazioni più stringenti. Questa scelta riflette una visione centralizzata del potere normativo, giustificata con la necessità di mantenere la leadership globale degli Stati Uniti nell’AI. Il messaggio è chiaro: la frammentazione regolatoria è vista come una minaccia competitiva, non come un laboratorio di sperimentazione democratica. In un certo senso, è l’opposto del modello europeo, dove la regolazione, incarnata da strumenti come l’AI Act, tende a essere più prescrittiva e armonizzata ex ante.
Questa divergenza tra approccio americano ed europeo non è solo normativa, è culturale. Negli Stati Uniti, l’innovazione viene ancora percepita come un bene intrinsecamente positivo, da proteggere anche a costo di tollerare rischi significativi. In Europa, l’innovazione è spesso vista come qualcosa da incanalare, se non da contenere. Due filosofie che riflettono storie economiche e politiche profondamente diverse, e che inevitabilmente influenzeranno la geografia futura dell’intelligenza artificiale.
Il riferimento agli standard guidati dall’industria è forse il passaggio più rivelatore dell’intero documento. Delegare la definizione delle regole agli stessi attori che dovrebbero essere regolati è una scelta che ha precedenti illustri, dall’industria finanziaria pre-crisi del 2008 fino alle prime fasi della regolazione di Internet. Funziona, finché non funziona più. Poi arrivano le crisi, e con esse regolazioni molto più severe.
Nel frattempo, la corsa globale all’AI continua a un ritmo che rende qualsiasi framework legislativo intrinsecamente obsoleto nel momento stesso in cui viene pubblicato. La vera domanda non è se questa proposta diventerà legge, ma quanto sarà rilevante quando lo diventerà. La storia della tecnologia è piena di normative che inseguono innovazioni già mutate, un po’ come tentare di regolamentare i social network con leggi pensate per i blog.
Si intravede, tra le righe, una strategia più ampia che potremmo definire di “dominanza competitiva soft”. Non si tratta di bloccare l’innovazione, ma di guidarla in modo da massimizzare il vantaggio nazionale, minimizzando al contempo il rischio di backlash politico. Una forma di realpolitik tecnologica che, se vogliamo essere cinici, riconosce implicitamente che l’AI non è solo una questione tecnica o etica, ma una leva di potere geopolitico.
Chi si aspetta una regolazione neutrale e bilanciata probabilmente sta guardando nella direzione sbagliata. La regolazione dell’intelligenza artificiale, oggi, è soprattutto una battaglia narrativa. E come tutte le battaglie narrative, viene vinta non da chi ha ragione, ma da chi riesce a definire i termini del dibattito.
Nel frattempo, le aziende continuano a costruire, i modelli continuano a migliorare, e la distanza tra ciò che è tecnicamente possibile e ciò che è politicamente regolato continua ad ampliarsi. È in questo spazio, sempre più ampio e sempre meno governato, che si giocherà il futuro dell’intelligenza artificiale. Un futuro che, a giudicare da questo framework, sarà deciso tanto nei data center quanto nei corridoi del potere, con buona pace di chi sperava in una governance più lineare e meno, diciamo, umana.