Come già anticipato a seguito delle decisioni delle commissioni Mercato interno e Libertà civili del Parlamento europeo, il vecchio continente preme il pulsante pausa sull’intelligenza artificiale, o almeno sulle regole che dovrebbero governarla. Il Parlamento europeo ha dato nella giornata di oggi il primo via libera a un rinvio dell’entrata in vigore dell’AI Act, segnando un passaggio tutt’altro che secondario nella costruzione del quadro normativo più ambizioso al mondo sull’AI.

Dietro il voto, ampio e trasversale, si intravede una realtà meno ideologica e più pragmatica di quanto spesso raccontato nei comunicati ufficiali. L’AI corre, le istituzioni regolano, ma il ritmo tra le due dimensioni raramente coincide. E così, mentre gli algoritmi imparano a scrivere codice, generare immagini e supportare decisioni complesse, Bruxelles si concede tempo per evitare di regolamentare troppo presto e, forse, nel modo sbagliato.

Il cuore della decisione riguarda i sistemi di AI ad alto rischio, quelli che incidono su ambiti sensibili come la biometria, le infrastrutture critiche, il lavoro e la giustizia. L’entrata in vigore delle norme slitta al 2027 e al 2028, una finestra temporale che, nel mondo tecnologico, equivale a un’era geologica. Nel frattempo, le aziende potranno continuare a sviluppare e implementare soluzioni, con un margine di manovra più ampio rispetto a quanto inizialmente previsto.

La scelta non è solo tecnica ma profondamente politica. L’Unione Europea si trova stretta tra due esigenze opposte. Da un lato la volontà di affermarsi come regolatore globale, capace di imporre standard etici e di sicurezza. Dall’altro la necessità di non soffocare un ecosistema industriale che, soprattutto sul fronte dell’intelligenza artificiale, soffre già la competizione con Stati Uniti e Cina.

Il rinvio diventa così una forma di realismo normativo: meglio arrivare qualche mese dopo con regole applicabili che anticipare i tempi con un impianto difficilmente sostenibile per le imprese. Non a caso, il Parlamento ha anche esteso alcune misure di supporto alle aziende oltre il perimetro tradizionale delle Pmi, segnalando una crescente attenzione alla competitività del sistema europeo.

Un altro elemento rilevante riguarda le norme sull’etichettatura dei contenuti generati dall’intelligenza artificiale. Il cosiddetto watermarking, pensato per distinguere ciò che è umano da ciò che è sintetico, viene anticipato ma al tempo stesso reso più flessibile nei tempi di attuazione. Si riconosce quindi l’urgenza del problema, ma si evita di imporre obblighi immediatamente complessi da rispettare, soprattutto in un contesto tecnologico in continua evoluzione.

Nel testo emerge anche una linea più netta su alcuni utilizzi controversi dell’AI. Il divieto dei sistemi di “nudificazione” non consensuale segna un passo importante sul fronte della tutela della persona, introducendo un principio che difficilmente verrà messo in discussione nei negoziati finali. Qui l’Europa torna a essere normativa, quasi assertiva, dimostrando che quando il rischio sociale è evidente, la regolazione accelera senza troppe esitazioni.

Proprio per questo, il rinvio dell’AI Act non va letto come un segnale di debolezza, ma come un aggiustamento di traiettoria. La macchina regolatoria europea, spesso percepita come lenta, sta in realtà cercando di sintonizzarsi con una tecnologia che cambia più velocemente delle leggi che la governano. Un esercizio complesso, che richiede equilibrio tra innovazione e controllo.

Resta ora da capire come si muoverà il Consiglio dell’Unione Europea nei negoziati con il Parlamento. Molto presumibilmente, il testo finale dell’AI Act sarà il risultato di compromessi, pressioni industriali e visioni politiche diverse, in un contesto in cui ogni decisione normativa ha implicazioni economiche e geopolitiche.

Per le aziende, il messaggio è chiaro anche se non esplicitato: il tempo guadagnato non è una tregua ma un’opportunità. Chi saprà utilizzarlo per adeguare processi, tecnologie e modelli di governance arriverà preparato al momento in cui le regole diventeranno effettive. Gli altri rischiano di scoprire che, in Europa, l’algoritmo più complesso da gestire resta sempre quello della compliance.

Nel frattempo, l’intelligenza artificiale continuerà a fare ciò che sa fare meglio: evolvere. E l’Europa, con il suo stile inconfondibile, continuerà a inseguirla con norme sempre più sofisticate, cercando di dimostrare che anche nella regolamentazione, a volte, rallentare è il modo più intelligente per andare lontano.