L’Europa, ancora una volta, ha premuto pause nel momento meno opportuno. Non è un bug, è proprio il feature della burocrazia continentale. Il 26 maggio MLex, solitamente più informato di chi legifera, ha lanciato la bomba: la Commissione Europea starebbe considerando di sospendere l’entrata in vigore dell’AI Act. Sì, proprio quella legge sbandierata come la “prima regolamentazione al mondo sull’Intelligenza Artificiale”. La legge che doveva mettere ordine nell’era dell’algoritmo sovrano. E invece, siamo al punto di partenza. Di nuovo.

La parola chiave qui è AI Act, ma si mescola con altre due che ne amplificano la tragicomicità: ritardi strutturali e code of practice. Perché il problema non è l’AI. Il problema è l’illusione che l’AI si regoli da sola con linee guida eteree, partorite da mille stakeholder in una stanza chiusa, mentre il mondo corre.

Il “codice di condotta” per i modelli GenAI — quello che doveva accompagnare l’AI Act, rendendolo più digeribile — è diventato un campo minato diplomatico e tecnico. Doveva essere pubblicato il 2 maggio, ma ora è rinviato ad agosto 2025. Cioè dopo che ChatGPT sarà diventato direttore di banca e Copilot avrà già scritto metà delle e-mail dei funzionari europei.

E no, non è la Commissione a scrivere quel codice, sia chiaro. È in mano a “chair indipendenti”, ma ovviamente “plasmati” da oltre 1.000 stakeholder. Un capolavoro di consenso procedurale, perfetto per non decidere niente ma far finta di averlo fatto. Qui non siamo davanti a un ritardo tecnico, siamo dentro il palcoscenico del regolatorio senza realtà.

La realtà, invece, ce la ricordano da Washington. Perché gli Stati Uniti, che fanno finta di essere allergici a regolamentazioni ma sanno usare le leve quando serve, hanno mandato una richiesta formale all’UE: “Correggete i difetti di questo codice”. Traduzione: smontate l’AI Act prima che penalizzi i nostri campioni tecnologici. È un’offensiva soft ma brutale. E la UE? Come sempre, in cerca di un compromesso, magari allungando i tempi. Ma è un compromesso su cosa? Sull’etica o sulla competitività?

Poi c’è la questione delle norme tecniche. Quelle che dovrebbero dare corpo all’AI Act. Ebbene: non ci sono. O meglio, non ancora. Il processo che dovrebbe tradurre i principi in operazioni concrete — cosa può fare un LLM, come valutare il rischio, cosa significa “trasparenza” — è impantanato. E questo lo sanno tutti, da Bruxelles a Berlino. Senza standard, l’AI Act è un castello di sabbia scritto in legalese.

Ed ecco che, per evitare il disastro in diretta, qualcuno ha iniziato a sussurrare l’unica soluzione razionale: “stop-the-clock”. Fermiamo tutto, congeliamo l’entrata in vigore, prendiamoci tempo per riscrivere (cioè semplificare) questa legge. Ma il fatto stesso che serva uno “stop-the-clock” rivela che il tempo, in Europa, non è mai stato gestito. Solo subìto.

Nel frattempo, gli stessi funzionari europei stanno già parlando di una “semplificazione digitale” più ampia. Un omnibus normativo che dovrebbe rimettere ordine nella giungla delle leggi digitali. Un’auto-confessione che le cose siano sfuggite di mano. Di nuovo.

C’è un paradosso che spiega tutto: la velocità con cui si evolve l’intelligenza artificiale è inversamente proporzionale alla velocità con cui si evolve la regolamentazione. Se OpenAI ha rilasciato GPT-4o in un battito di ciglia, l’UE impiega 3 anni per decidere se un modello è ad “alto rischio”.

E mentre ci si dibatte su copyright, rischio sistemico, diritti umani e trasparenza delle black box, la realtà è che nessuno ha davvero idea di come “regolare” un modello generativo senza ammazzare l’innovazione. Quindi si scrivono codici, si fanno consultazioni, si evocano principi. Ma nel frattempo, l’AI diventa embedded ovunque: nel CRM, nei software di sicurezza, nei sistemi medici. E chi controlla questi flussi? Nessuno. Perché la regolamentazione non ha capito che l’AI non è un prodotto, è un’infrastruttura cognitiva.

Una nota ironica: l’AI Act, nella sua ambizione etica, rischia di essere l’unico framework normativo nella storia recente a diventare obsoleto prima ancora di entrare in vigore. È come pubblicare le regole del codice stradale nel 2025… per le carrozze a cavalli.

Quindi, cosa succede ora? La risposta è semplice e crudele: nulla. Si aspetta. Si negozia. Si redige. E si lancia il solito comunicato stampa europeo: “abbiamo fatto un passo avanti verso un’Europa digitale più sicura e inclusiva”. Nel frattempo, chi sviluppa veri modelli di AI si trova a rispondere a audit etici su rischi che nessuno ha davvero definito.

Ma attenzione: questo caos normativo è un’opportunità. Per le aziende capaci di muoversi nella nebbia regolatoria. Per chi sa anticipare, non aspettare. Per chi capisce che, finché l’AI Act resta nel limbo, l’unica legge vera è quella dell’adattabilità.

Come disse una volta un consulente UE sotto pseudonimo:

“La regolamentazione in Europa è come il vino: più invecchia, più è difficile da digerire. E fa girare la testa a chi non è abituato.”

Questa pausa dell’AI Act non è un incidente. È un sintomo. Di un’Europa che vuole controllare il futuro, ma ancora si fida solo dei moduli PDF.

Benvenuti nella distopia legalizzata.

Source MLEX