L’Europa, nel suo eterno ruolo di regolatore morale del mondo digitale, sembra aver perso un po’ di quella fiducia granitica che l’aveva spinta a varare l’AI Act, la prima legge globale sull’intelligenza artificiale. Adesso, a pochi mesi dall’entrata in vigore, Bruxelles starebbe valutando un rinvio parziale dell’applicazione delle norme, un “periodo di grazia” che suona più come un SOS politico che come una strategia. Il problema non è solo tecnico, è identitario: l’Unione che voleva guidare il mondo nell’etica dell’AI sta ora cercando di non far scappare i suoi stessi innovatori.
Il termine “riflessione” utilizzato dalla Commissione europea nasconde una tensione evidente. Da un lato c’è la necessità di difendere la narrativa della sovranità digitale, dall’altro la paura, molto concreta, di un’escalation industriale da parte degli Stati Uniti. Washington ha fatto sapere che considera le regole europee troppo invasive e, secondo quanto trapela, l’amministrazione Trump avrebbe persino minacciato tariffe su quei Paesi che adottassero norme giudicate “discriminatorie” contro le big tech americane. In altre parole, la diplomazia del silicio.
Le pressioni non arrivano solo dall’altra parte dell’Atlantico. Dalle stanze dei colossi europei è partito un coro sempre più dissonante. Airbus, Mercedes-Benz e Lufthansa hanno chiesto apertamente una pausa di due anni per evitare che la burocrazia digitale strangoli l’innovazione. Un appello che profuma di realpolitik industriale e che mette a nudo un fatto scomodo: l’Europa ha scritto la legge più ambiziosa sull’intelligenza artificiale senza disporre di un ecosistema tecnologico in grado di sostenerla.
L’AI Act è nato con l’obiettivo di tutelare i cittadini dai rischi legati ai sistemi “ad alto rischio”, ovvero quelli capaci di incidere su salute, sicurezza e diritti fondamentali. Le prime norme sono entrate in vigore nell’agosto 2024, ma la vera sostanza arriverà solo nel 2026. Le aziende che sviluppano modelli generativi, quelli capaci di creare testi o immagini, dovrebbero rispettare obblighi di trasparenza e tracciabilità molto stringenti. Tuttavia, secondo indiscrezioni, Bruxelles starebbe valutando una deroga di dodici mesi per i modelli già sul mercato, una sospensione che permetterebbe alle imprese di “adattarsi senza perturbare il mercato”. Una formula burocratica che, tradotta, significa tempo per capire come aggirare le regole senza sembrare disobbedienti.
Il paradosso è che questa esitazione rischia di danneggiare proprio la credibilità che l’AI Act intendeva consolidare. Nel mondo dell’intelligenza artificiale la velocità è tutto: un anno equivale a un’era geologica. Un rinvio non è solo un atto tecnico, è un segnale politico al mercato globale, un’ammissione di debolezza. Se l’Europa si concede margini, gli altri blocchi economici ne approfitteranno. È già successo con la regolamentazione dei dati e con la privacy: il GDPR ha imposto una disciplina, ma anche creato un vuoto competitivo che gli Stati Uniti hanno saputo colmare con pragmatismo.
In questo scenario, le big tech americane hanno colto l’occasione per giocare su più tavoli. Meta, ad esempio, ha rifiutato di firmare il codice di condotta europeo per i modelli di AI generativa, definendolo “giuridicamente incerto”. Joel Kaplan, il suo capo delle relazioni globali, ha accusato Bruxelles di voler introdurre regole “che vanno ben oltre la portata dell’AI Act”. Una critica apparentemente tecnica ma sostanzialmente politica: non si tratta solo di interpretare la norma, ma di mettere in discussione la capacità dell’Europa di scrivere regole applicabili in un mercato globale dominato da altri.
Il dibattito si sta trasformando in una sfida di credibilità istituzionale. I commissari europei insistono nel ribadire che la riflessione è “in corso” e che nessuna decisione definitiva è stata presa. Ma la semantica del rinvio è già di per sé un messaggio: quando un legislatore parla di “flessibilità”, il mercato sente “insicurezza”. È l’eterno problema dell’Unione, che tende a confondere la complessità con la competenza.
La partita più delicata è quella dei sistemi ad alto rischio. Le regole prevedono monitoraggi continui e verifiche tecniche sui modelli in produzione, un’idea che sulla carta tutela l’utente, ma che nella pratica impone costi operativi insostenibili per molte startup. Ecco perché Bruxelles starebbe valutando di alleggerire la supervisione, permettendo alle aziende di seguire linee guida meno prescrittive. Un gesto di apertura che suona però come un passo indietro.
Sul piano politico, il rischio è di aprire la porta a un negoziato pericoloso con Washington. Se la Commissione dovesse effettivamente rimandare l’applicazione delle sanzioni, come suggeriscono alcune fonti fino al 2027, il messaggio sarebbe chiaro: l’Europa riconosce di non essere pronta a controllare ciò che ha deciso di regolare. È un cortocircuito normativo che potrebbe compromettere anni di lavoro diplomatico e spingere gli investitori a preferire giurisdizioni più prevedibili.
C’è poi una dimensione psicologica che pochi analisti considerano. L’AI Act non è solo una legge, è una dichiarazione d’identità. In un mondo dove l’intelligenza artificiale plasma mercati, cultura e persino geopolitica, l’Europa aveva finalmente trovato un terreno in cui dettare le regole. Rinviare significherebbe accettare che la governance tecnologica globale si scriva altrove, magari a Washington o a Pechino.
Gli osservatori più critici ricordano che l’Unione non è nuova a questi tentennamenti. Il Digital Services Act e il Digital Markets Act hanno avuto percorsi analoghi, con una fase iniziale di entusiasmo e una successiva diluizione normativa sotto la pressione dei colossi del settore. Ogni volta si è ripetuta la stessa liturgia: principi ambiziosi, compromessi pratici, applicazione graduale. Ma il tempo dell’intelligenza artificiale non è lineare come quello della burocrazia. Qui la lentezza equivale alla resa.
In fondo, il dibattito sull’AI Act è una metafora del destino europeo: un continente che pretende di guidare la rivoluzione digitale ma teme le sue conseguenze economiche. Bruxelles parla di etica e diritti, ma le aziende parlano di competitività e sopravvivenza. E quando queste due lingue si incontrano, di solito vince quella che paga le tasse e crea occupazione.
Nel frattempo, l’AI continua a evolversi senza chiedere permesso. Ogni mese nascono modelli sempre più potenti, capaci di generare contenuti, simulare personalità e prendere decisioni in autonomia. Ritardare la regolamentazione significa lasciare che la velocità sostituisca la responsabilità. Il rischio, per l’Europa, è di ritrovarsi a discutere di principi mentre il mondo sperimenta la prossima ondata di intelligenza generativa.
La parola chiave è fiducia, ma la fiducia si costruisce con la coerenza. Se Bruxelles davvero crede nel suo progetto, dovrebbe resistere alle pressioni di Washington, alle lobby di Parigi e Berlino e alle lettere di protesta delle multinazionali. In caso contrario, l’AI Act resterà un monumento incompiuto alla burocrazia morale, un’utopia regolatoria in un mercato che non aspetta nessuno.