Dalla serie cosa pensano gli Americani di noi Europei.
Benvenuti nella nuova teocrazia digitale. Solo che stavolta i preti portano cravatta, parlano 24 lingue, e fanno parte della Commissione Europea. L’ultimo colpo di genio di Bruxelles? Una legge che obbligherà le aziende di intelligenza artificiale — americane comprese ad allinearsi a una visione molto specifica di “discorso d’odio”, “valori europei” ed “etica ESG”.
Sì, anche se operano da San Francisco. Anche se hanno data center su Marte. L’algoritmo dovrà inginocchiarsi davanti all’altare di Bruxelles, pena l’esclusione dal mercato europeo. In una mossa che definire geopoliticamente invasiva è dir poco, l’UE ha deciso che non basta regolamentare le Big Tech sul proprio territorio. Ora si vuole imporre come oracolo morale del machine learning globale.
Non è fantascienza, è il Digital Services Act e soprattutto l’AI Act, una bestia legislativa che mette insieme tutela dei diritti fondamentali, ESG, e un’interessante visione post-democratica della governance dei dati.
Justin Haskins, penna tagliente del “Great Reset” e Glenn Beck uno che ama lanciare allarmi come se vendesse antifurti ci mettono in guardia: quello che sta arrivando non è solo un cambio normativo, ma una riscrittura ideologica dei motori cognitivi del futuro. Non regolamento. Indottrinamento automatizzato.
La parola chiave è “hate speech”, ma attenzione: qui non si parla solo di contenuti neonazisti o incitamenti alla violenza. La definizione europea può includere, a seconda del vento politico, critiche a ideologie di genere, battute sul cambiamento climatico, scetticismo vaccinale o difesa della sovranità energetica. Se un domani un modello AI osa rispondere con neutralità a una domanda sull’immigrazione, potrebbe trovarsi in violazione del nuovo catechismo etico.
Il rischio, come sempre in queste alchimie legislative, non è l’intenzione dichiarata ma l’effetto collaterale: l’uniformazione ideologica del linguaggio e del pensiero artificiale. Se vuoi accedere al mercato europeo, devi pensare “europeo”. Tradotto: le tue AI devono interiorizzare codici morali, bias culturali e idiosincrasie linguistiche imposte da commissioni che nessuno ha votato. L’algoritmo, insomma, diventa ambasciatore di una certa visione del mondo. Automatizzata. Sistemica. Inaggirabile.
E qui entra in gioco l’altra keyword che fa tremare i CTO: ESG. Environment, Social, Governance. La trinità laica dei nuovi padroni universali. L’AI Act non si accontenta di evitare i deepfake o le discriminazioni algoritmiche. Vuole che ogni intelligenza artificiale promuova attivamente determinati valori. Sviluppatori di modelli LLM, avvisati: non basta che il tuo sistema non sia razzista. Deve essere attivamente antirazzista, antisessista, pro-inclusivo, climatically correct e sensibile all’intersezionalità. In pratica: woke by design.
In teoria è una manna per chi sogna un mondo più etico. In pratica è un incubo per chi conosce la natura adattiva dell’AI: se la sua traiettoria cognitiva viene vincolata a uno spettro ideologico, stiamo costruendo una generazione di sistemi cognitivi programmati a censurare, invece che a pensare.
E ChatGPT? Secondo Haskins, avrebbe già cominciato a incorporare modifiche in linea con queste direttive. OpenAI, desiderosa di non perdere il mercato UE, starebbe già riformulando certi filtri e bias per evitare collisioni con la normativa. Se chiedi a ChatGPT una battuta su Trump, ti ride. Su Biden, diventa diplomatico. Domande su “perché l’uomo non può essere incinto”? Riformulazione inclusiva. È un pattern, non un caso.
Ma, come ogni regolamentazione europea, c’è il paradosso: una parte del disegno non è del tutto sbagliata. L’AI Act pone per la prima volta limiti giuridici all’uso di intelligenze artificiali in ambiti sensibili: riconoscimento facciale, sorveglianza predittiva, manipolazione cognitiva. In un mondo dominato da modelli che apprendono senza freni e si nutrono di contenuti potenzialmente tossici, stabilire dei binari non è un’eresia.
Il problema è che questi binari non sono neutri. Sono ideologicamente orientati. E, peggio ancora, esportati con la logica della coercizione regolatoria: “o ti adegui, o sei fuori”. Siamo passati dall’etica by design all’etica by force.
Tutto questo mentre gli Stati Uniti giocano al gioco opposto: libertà creativa prima, responsabilità dopo. Il che spiega anche perché le AI americane siano al momento più brillanti ma anche più caotiche. L’Europa, nel suo tentativo disperato di dominare l’unica rivoluzione tecnologica che le è sfuggita (dopo Internet, cloud e social media), ha deciso di riscrivere le regole per tutti. Anche per chi non ha mai chiesto il permesso.
E se oggi è ChatGPT, domani saranno Anthropic, Mistral, xAI. Tutti in ginocchio davanti al nuovo GDPR cognitivo. E in un mondo dove le AI diventano estensioni del pensiero umano, stiamo per entrare nell’era del pensiero normato-by-design. Non importa quanto potente sarà il modello, quanto accurata la predizione, quanto raffinata la risposta. Se non è conforme, è illegale. E se è illegale, è inutilizzabile.
Curiosità da bar, ma utile: lo stesso Kant, se vivesse oggi, sarebbe bannato in certi ambienti accademici europei. Troppo bianco, troppo etero, troppo categorico. Figurati cosa ne farebbero del suo algoritmo.
Quindi no, non è solo una questione tecnica. È una guerra culturale combattuta in codice. E per chi sviluppa AI, oggi, il vero dilemma non è più “possiamo farlo?”, ma “ci permetteranno di pensarlo?”