In un mondo dove l’AI genera testi più eloquenti di un discorso presidenziale e immagini capaci di ingannare persino i più esperti, molto probabilmente la domanda che dobbiamo porci non è più se regolare questa tecnologia, ma come. Viviamo, inutile nascondercelo, in un’arena geopolitica dove l’Europa brandisce il righello della compliance come un monito biblico, gli USA accelerano a tavoletta sul binario dell’innovazione “libera per tutti” (o quasi) e la Cina orchestra un balletto tra sorveglianza e supremazia tecnologica.
Nel 2025, con l’AI Act europeo già in fase di enforcement parziale [1], un executive order americano che toglie i freni alla crescita [2] e Pechino che etichetta contenuti generati dall’AI come un marchio di fabbrica statale [3], il dibattito tra regolamentazione versus libertà assoluta dell’AI si trasforma in una partita a tre. Per i professionisti del settore, dai data scientist ai policy maker, navigare questo triangolo non è solo un esercizio accademico: è un dilemma essenziale da risolvere non solo per evitare multe miliardarie ma anche per non perdere le straordinarie opportunità che questa fase dell’innovazione ci propone.
Esploriamo le diverse posizioni, con quel pizzico di ironia che ormai è la cifra stilistica di Rivista.AI, perché, in fondo, quello che dobbiamo chiederci è: ma l’AI ci salverà dal caos o ce lo causerà?

Europa: il rigore normativo come scudo contro il caos digitale
L’UE si sa è terra di regolamenti, direttive e raccomandazioni meticolose su tutto: industria, agricoltura, commercio, innovazione, trasporti, mercato interno, trasporti, ambiente, energia e via dicendo. Qui, la regolamentazione dell’AI non è un optional, ma un imperativo categorico che sembra quasi ispirato a Kant o forse solo a una sana paura del disordine. L’EU AI Act, entrato in vigore nell’agosto 2024 e con divieti su pratiche “inaccettabili” attivi dal febbraio 2025 [4], adotta un approccio risk-based che classifica i sistemi AI in quattro livelli: minimo, limitato, alto e inaccettabile.
Pensate a un semaforo per algoritmi: si va dal verde per i tool innocui come un filtro Instagram, al rosso sangue per il social scoring o la biometria predittiva, banditi tout court, passando per l’arancione quando i rischi sono limitati, come un sistema di raccomandazione personalizzata su piattaforme e-commerce, che richiede supervisione umana per evitare bias nei suggerimenti.
Per i modelli di general-purpose AI (GPAI) come ChatGPT o i nascenti equivalenti europei, le regole, efficaci dall’agosto 2025 [5], impongono trasparenza ferrea: valutazioni di rischio sistemico, reporting di incidenti e rispetto del copyright Ue.
Ironia della sorte, mentre da un lato l’Europa si autoimpone vincoli rigorosi, dall’altro teme di frenare l’innovazione, rivelando tutte le sue contraddizioni interne: proprio quest’anno la Commissione ha varato InvestAI con 200 miliardi di euro per le “Gigafactory AI” [6], un’ammissione implicita che il suo rigore normativo, celebrato come baluardo etico, potrebbe trasformarsi in un lusso costoso, mentre gli Stati membri oscillano tra compliance e competizione globale.
Per i deployer di AI ad alto rischio, quelle entità (aziende, organizzazioni o individui) che utilizzano sistemi di intelligenza artificiale in settori critici come sanità, trasporti, giustizia, sicurezza pubblica e risorse umane (dove rientrano ad esempio gli algoritmi per diagnosi mediche, i sistemi di sorveglianza biometrici o gli strumenti di selezione del personale), conformity assessment e audit sono obbligatori dal 2026-2027 [7], con multe fino al 7% del fatturato globale.
Anche qui lo scontro si accende tra scettici e idealisti: i primi sostengono che l’AI Act rappresenti un “freno europeo” nella corsa globale all’innovazione, mentre per i secondi, i puristi della geopolitica digitale, è il baluardo contro distopie orwelliane.

USA: innovazione libera ma con un asterisco per la sicurezza nazionale
Passiamo all’altra sponda dell’Atlantico, dove l’AI è sinonimo di “American Dream 2.0”: veloce, scalabile e, idealmente, deregolamentata. Nel 2025, l’amministrazione Trump ha capovolto il tavolo con l’Executive Order “Removing Barriers to American Leadership in AI” [8], revocando l’ordine Biden del 2023 che imponeva safety testing e bias mitigation. “Libertà da bias ideologici”, tuona il documento, puntando a un’AI “radicata nel free speech e nel flourishing umano” [9]. Risultato? Nessun watermark obbligatorio federale per contenuti AI-generated, né audit bias su scala nazionale, solo raccomandazioni NIST per cybersecurity risks, aggiornate a marzo 2025
Ma non bisogna illudersi: la “libertà assoluta” è un mito americano con footnote. A livello statale, 38 entità hanno varato circa 100 misure solo nel 2025, dalla California (AB 3030 per disclosure genAI in sanità ai controlli sui dati personali del Tennessee [10]. A livello federale, il Take It Down Act dello scorso aprile criminalizza deepfake non consensuali [11], mentre l’America’s AI Action Plan di luglio 2025 [12], promette eliminare la burocrazia eccessiva, ovvero semplificare regolamenti e procedure amministrative per favorire l’innovazione e la crescita economica nel settore dell’AI. L’obiettivo dichiarato è rendere gli Usa più competitivi a livello globale, accelerando lo sviluppo tecnologico senza ostacoli normativi per frenare la Cina. Per i pro dell’AI, è un paradiso innovativo; per i detrattori, un far west dove l’etica è opzionale, almeno fino al prossimo scandalo.

Cina: la regolamentazione come arma geopolitica per l’egemonia tecnologica
E poi c’è la Cina: non un giocatore, ma l’orchestra principale. Qui, la regolamentazione dell’AI non è solo compliance, è strategia nazionale, un mix di controllo centralizzato e spinta all’export che farebbe invidia a Machiavelli. Le Interim Measures for Generative AI del 2023, con standard nazionali efficaci da novembre 2025 [13], impongono labeling obbligatorio per contenuti AI-generated [14]: etichette esplicite (per deepfake) e implicite (per testi), per “distinguere il sintetico dall’umano” [15]. Ironico, no? Mentre DeepSeek, l’LLM cinese che ha spodestato ChatGPT nelle classifiche app nel Capodanno lunare 2025 [16], simboleggia l’ascesa tech, le regole etichettano tutto per prevenire “abusi” come misinformation o violazioni dei diritti di personalità (riconosciuti dalla Corte Suprema lo scorso mese di maggio) [17].
Il quadro è frammentato ma coerente: dal Data Security Law al Personal Information Protection Law, passando per la campagna “Clear and Bright” contro gli abusi AI varata ad aprile 2025. Proposte di AI Law (draft accademici come Model AI Law v3.0) [18] puntano a classificazione rischi e obblighi lifecycle, con enfasi su “sicurezza nazionale e interesse pubblico” [19]. Globalmente, l’Action Plan di luglio 2025 propone un’organizzazione AI con sede a Shanghai per la “cooperazione inclusiva” [20], un’offerta diplomatica che maschera ambizioni egemoniche. Per Pechino, regolare l’AI significa accelerare l’innovazione (mercato previsto a 62 miliardi USD entro fine anno) [21], senza caos, ma con un occhio vigile su export e dati.
Libertà? Solo se allineata al piano quinquennale.


La tabella evidenzia con chiarezza una divergenza nelle priorità: l’Europa pone al centro i diritti umani, gli USA si focalizzano sulla crescita, mentre la Cina privilegia la sovranità.
Le implicazioni geopolitiche: una gara a tre con vincitori multipli?
In questo triangolo, nessuno vince in assoluto o forse sì, a seconda del metro di giudizio che adottiamo nell’analizzare il tema. L’Europa esporta “trustworthy AI” come standard globale, influenzando catene supply chain mondiali e costringendo giganti USA a compliance ibrida. Gli Usa, con la loro libertà (relativa), dominano l’innovazione, ma rischiano una frammentazione che diluisce il potere negoziale contro Pechino. La Cina ha un approccio normativo moderato che serve a favorire l’innovazione e lo sviluppo tecnologico ma con un controllo centrale che indirizza tali progressi verso scopi nazionali, come la sovranità tecnologica o la competitività globale [22]. Da questo punto di vista, va tenuto presente che, come già detto, con la NAIDP 2030 il governo cinese ha l’obiettivo di fare della Cina il leader mondiale nell’AI entro il 2030 [23]. Tra gli obiettivi chiave che si è data Pechino: raggiungere primato in teorie, tecnologie e applicazioni AI; triplicare l’industria core AI entro il 2025 e quintuplicare quella correlata entro il 2030; integrare l’AI in economia e società per un “intelligent economy”; finanziare ricerca, talenti e infrastrutture per competere globalmente, bilanciando innovazione e controllo statale.

L’Etica come bussola: il Convegno di Roma Tre e il futuro dell’AI
Ma oltre la geopolitica, c’è un tema che lega tutto: l’etica. L’AI non è solo un gioco di potere tra continenti. È una rivoluzione, paragonabile alla stampa o all’industrializzazione, che ridefinisce lavoro, relazioni e conoscenza, dalle diagnosi mediche alle infrastrutture digitali. Eppure, gli stessi algoritmi che sono in grado di guidarci più velocemente verso il progresso possono amplificare pregiudizi, disuguaglianze o minacciare diritti fondamentali.
In un mondo interconnesso, l’etica non è un lusso, ma una necessità strutturale per orientare l’innovazione verso il bene comune.
A questo proposito, ci avviciniamo ad un evento imperdibile: il Convegno Internazionale sull’Etica dell’Intelligenza Artificiale, in programma il 4 e 5 dicembre 2025 che si terrà all’Università Roma Tre, promosso dallo stesso ateneo romano, in collaborazione con l’Università Pegaso.
Questo summit globale riunirà oltre 100 relatori – tra cui il guest speaker Luciano Floridi e keynote speaker internazionali come Sylvie DeLacroix, Shannon Vallor, Giono Roncaglia, Giuseppe De Pietro e Ned Block – per discutere principi e pratiche che guidino l’AI verso dignità umana, sostenibilità e giustizia sociale.
Durante l’evento verrà lanciata SEPAI International Society for Ethics and Politics in Artificial Intelligence, una nuova rete globale per standard etici condivisi.
Per i professionisti del settore, questo appuntamento sarà un faro: l’etica non è solo un freno ai rischi (bias, deepfake, impatto ambientale), ma un acceleratore per un’AI inclusiva ed equa.
Mentre Europa, USA e Cina si sfidano, gli organizzatori dell’evento, il prof. Mario De Caro dell’Università Roma Tre e il prof. Andrea Lavazza dell’Università Pegaso, ci ricordano che il vero successo tecnologico nel 2025 dipenderà da una bussola morale, non solo da regolamenti o velocità.
Vai alla pagina del Convegno per maggiori informazioni sul programma, sui keynote speaker e sulle modalità di partecipazione:
Convegno Internazionale sull’Etica dell’Intelligenza Artificiale
Roma, 4 e 5 dicembre 2025 | Università Roma Tre
Fonti:
- https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
- https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/
- https://www.insideprivacy.com/international/china/china-releases-new-labeling-requirements-for-ai-generated-content/
- https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
- https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-european-union
- https://artificialintelligenceact.eu/implementation-timeline/
- https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/
- https://www.softwareimprovementgroup.com/us-ai-legislation-overview/
- https://www.bclplaw.com/en-US/events-insights-news/us-state-by-state-artificial-intelligence-legislation-snapshot.html
- https://xenoss.io/blog/ai-regulations-usa
- https://www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf
- https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-china
- https://www.insideprivacy.com/international/china/china-releases-new-labeling-requirements-for-ai-generated-content/
- https://dig.watch/updates/china-announces-mandatory-ai-labelling-requirements
- https://law.asia/china-ai-regulations-legislation-compliance-future-prospects/
- https://www.hsfkramer.com/insights/reports/ai-tracker/prc
- https://www.science.org/doi/10.1126/science.ady7922
- https://cset.georgetown.edu/publication/china-ai-law-draft/
- https://www.ansi.org/standards-news/all-news/8-1-25-china-announces-action-plan-for-global-ai-governance
- https://www.holisticai.com/blog/china-ai-regulation
- https://www.jtl.columbia.edu/volume-63/the-promise-and-perils-of-chinas-regulation-of-artificial-intelligence
- https://carnegieendowment.org/research/2025/07/chinas-ai-policy-in-the-deepseek-era?lang=en