
Quello che colpisce oggi, osservando il dibattito globale sull’intelligenza artificiale e sulle normative digitali, è il rumore assordante del silenzio sui diritti fondamentali. Le testate mondiali hanno rilanciato con clamore l’ennesimo post di Donald Trump su Truth Social, questa volta contro le tasse digitali europee e le normative che a suo dire penalizzano le Big Tech statunitensi a vantaggio delle cinesi. Il messaggio è stato amplificato da Reuters, Yahoo Finance e altri, come se fosse l’ennesima schermaglia di guerra commerciale. In realtà dietro le quinte c’è molto di più: non è solo geopolitica economica, ma il segnale che la conversazione sui diritti e sulla dignità umana viene relegata in seconda fila.
Quando Elena Mihalas ha portato alla luce il volume 4 della collana Trier Studies on Digital Law, “Artificial Intelligence and Fundamental Rights: The AI Act of the European Union and its Implications for Global Technology Regulation”, la connessione è stata immediata. Qui non si parla di tweet o di retorica elettorale, ma di architettura legale per governare l’imponderabile. È il tentativo dell’Europa di alzare un argine contro l’idea che l’innovazione sia un totem intoccabile a cui sacrificare qualsiasi principio. Il Regolamento (UE) 2024/1689 non è una mera bandiera burocratica, ma un framework che decide che la bussola non è il fatturato delle piattaforme, bensì i diritti fondamentali dei cittadini.
Molti osservatori americani gridano alla discriminazione, accusano Bruxelles di protezionismo tecnologico mascherato. Ma chi conosce il testo del Regolamento sa che non c’è nulla di “anti-USA” o “pro-Cina”. La norma è volutamente technology-neutral e company-agnostic. Non importa chi sviluppa o chi distribuisce: ciò che conta è il rischio sistemico che un algoritmo può introdurre. Che si tratti di una startup in un garage o di un colosso quotato al Nasdaq, l’attenzione si concentra sull’impatto sull’individuo e sulla società. È un principio banale, quasi ingenuo, eppure rivoluzionario: il potere delle macchine va misurato sulla pelle delle persone.
In questo senso, la retorica del “freno all’innovazione” è un falso mito. Senza fiducia, l’innovazione è sterile. Senza trasparenza, l’innovazione è pericolosa. Senza diritti, l’innovazione diventa un’arma. Ecco perché l’AI Act introduce livelli multipli di governance, un mosaico che va dalla supervisione centrale dell’UE alle autorità nazionali, passando per consultazioni pubbliche e linee guida co-create con l’industria. Non è la resa alla lobby tecnologica, ma un delicato equilibrio tra il know-how delle imprese e l’imparzialità delle istituzioni. È il riconoscimento che il settore privato ha la velocità, ma lo Stato ha la legittimità.
La verità è che le piattaforme hanno abituato gli utenti a un mercato senza filtri, dove prodotti e servizi vengono lanciati come caramelle su uno scaffale digitale globale. Non importa se l’algoritmo riconosce un volto o se discrimina un richiedente mutuo, l’importante è monetizzare velocemente. Eppure, come ricordano studiosi come Antje von Ungern-Sternberg o Joanna Bryson, questa logica da “move fast and break things” ha già rotto troppo: ha eroso la fiducia sociale, ha amplificato bias, ha compromesso l’equità dei processi democratici. Chi parla di libertà d’impresa come dogma dimentica che senza tutele giuridiche la libertà diventa arbitrio.
Curioso che Trump parli di “discriminazione” quando ciò che l’AI Act stabilisce è esattamente il contrario: parità di trattamento, indipendentemente dalla bandiera della compagnia. È l’ossessione americana di leggere qualsiasi norma europea come un attacco diretto al proprio dominio tecnologico. In realtà si tratta di qualcosa di più universale e più disturbante per chi è abituato a non avere limiti: la pretesa che anche l’intelligenza artificiale rispetti i confini del diritto. Non una gabbia, ma un recinto etico e legale, senza il quale il mercato non è libero, ma selvaggio.
Il silenzio sui diritti umani in questo dibattito non è casuale. È la vittoria della narrativa che riduce tutto a una guerra di quote di mercato. Parlare di trasparenza, di supervisione, di dignità umana non genera clic, non fa alzare i titoli in borsa. Eppure, il futuro dell’AI non si gioca solo sui margini di profitto, ma sulla capacità di impedire che algoritmi opachi decidano chi ha diritto a un prestito, chi ottiene un lavoro, chi viene segnalato come sospetto. È lì che il regolatore deve entrare in campo, non come censore ma come garante.
Non si tratta di frenare l’innovazione, ma di normalizzarla. La normalizzazione non piace agli innovatori seriali, perché suona come mediocrità. In realtà è l’unico modo per dare continuità e sostenibilità all’ecosistema. Una tecnologia senza regole può brillare oggi e crollare domani, travolta da scandali, cause legali o semplicemente dal rifiuto sociale. Una tecnologia regolata, invece, può diventare parte della vita quotidiana senza paura, perché sostenuta da un quadro di fiducia.
Il paradosso è che chi oggi grida contro l’AI Act domani ne beneficerà. Perché le stesse aziende che lamentano barriere si troveranno a operare in un mercato dove i consumatori si fidano dei sistemi di intelligenza artificiale. Dove la legittimità istituzionale diventa leva competitiva. Dove non basta dire “abbiamo un nuovo modello” per convincere, ma occorre dimostrare sicurezza, trasparenza, responsabilità. È la stessa dinamica che ha reso l’Europa leader nella privacy con il GDPR: prima la resistenza, poi l’adozione, infine l’accettazione globale.
In definitiva, la questione non è se l’AI Act sia un complotto contro qualcuno, ma se siamo disposti a sacrificare i diritti sull’altare della velocità. Chi guarda solo al breve termine vede norme come freno. Chi guarda al lungo termine le vede come fondamento. La scelta è tra il far west tecnologico e un ecosistema che riconosce che l’intelligenza artificiale non è un giocattolo, ma un’infrastruttura di potere.
(Da un confronto con Fabrizio Degni AI Ethicist)