In fondo, è tutto lì: Bruxelles ha creato un mostro normativo e ora sta scoprendo che non sa più da che lato afferrarlo senza farsi male. L’AI Act, celebrato come la risposta europea all’anarchia algoritmica globale, si sta inceppando proprio nel momento in cui dovrebbe cominciare a funzionare. La data simbolo è il 2 agosto 2026, quando le aziende dovrebbero allinearsi agli standard per immettere legalmente sul mercato software di intelligenza artificiale. Ma ora, sorpresa: gli organismi incaricati di definire quegli standard non sono pronti.

Non è solo una questione di tempi. È una questione di realtà. E la realtà è che l’Europa ha tentato di regolamentare l’AI prima di comprenderla fino in fondo. Una strategia “ex ante”, dicono a Bruxelles. In teoria affascinante, nella pratica simile a tentare di fissare i limiti di velocità su Marte prima ancora di sapere se esistano strade.

L’AI Act, partorito con dolore in una serie di round negoziali che hanno coinvolto Commissione, Parlamento e Stati membri, è già oggi un contenitore quasi troppo ampio per la materia che pretende di regolare. Non una cornice, ma un quadro ancora bagnato che si cerca di appendere mentre i pittori stanno litigando su quale colore usare.

Nel frattempo, l’industria corre. E chiede tempo. E chiede flessibilità. E, sotto voce, chiede deregolamentazione. Anche perché nel frattempo negli Stati Uniti si è fatto tutto il contrario: non una legge federale, ma un patchwork di interventi soft guidati dal mercato e da un governo che gioca di sponda, tra executive orders e partnership con Big Tech. In Cina, il controllo è verticale e ideologico. L’Europa, invece, sta cercando di imporre un framework orizzontale e democratico a un fenomeno che per sua natura è caotico, adattivo e spesso opaco.

Il paradosso è che più l’AI evolve, più l’AI Act appare vecchio. I modelli fondazionali (foundation models), i LLM, i sistemi generativi multimodali: nulla di tutto questo esisteva davvero quando è iniziata la stesura del regolamento. E oggi le aziende che dovrebbero implementare gli obblighi si trovano di fronte a un’architettura normativa che impone trasparenza in ambienti dove neppure gli sviluppatori riescono a spiegare il comportamento del proprio modello.

E allora Bruxelles prende tempo. Si parla di rinviare pezzi dell’AI Act, in particolare la parte cruciale che riguarda gli standard tecnici per la conformità, un passaggio chiave che, nella logica della legge, dovrebbe certificare la bontà e la sicurezza dei sistemi AI prima della loro immissione sul mercato. Solo che questi standard… non ci sono ancora. O meglio, non sono pronti. Perché le agenzie europee incaricate di scriverli – tra cui l’ENISA, il CEN-CENELEC, e altri attori della tecno-burocrazia comunitaria – non riescono a star dietro alla velocità del cambiamento.

E qui l’ironia si fa potente: l’Unione Europea, che voleva “guidare il mondo con la prima legge sull’intelligenza artificiale”, si ritrova a implorare una pausa. E questa pausa, inevitabilmente, diventa terreno fertile per le lobby. Il tempo extra chiesto per “fare le cose per bene” può facilmente trasformarsi in una lunga fase di congelamento, in cui le aziende si adegueranno il minimo indispensabile, magari giusto per ottenere un bollino CE sul proprio LLM, mentre la sostanza – accountability, explainability, safety – rimarrà tutta da verificare.

Ma il mantra, ci dicono a Bruxelles, è “semplificare”. Parola che, in burocratese avanzato, suona spesso come “spalmare, diluire, depotenziare”. Dopo il trauma collettivo del GDPR – nato con le migliori intenzioni, diventato un incubo regolamentare anche per chi lo sosteneva – la Commissione non vuole più sbagliare. Ma nel voler evitare gli errori del passato sta finendo per congelare il presente.

Nel frattempo, accade qualcosa di più sottile ma strategicamente devastante: le startup europee dell’AI guardano a San Francisco e Tel Aviv come ecosistemi più pragmatici. E i capitali le seguono. Perché chi investe in AI non vuole un quadro giuridico perfetto nel 2028, ma un ambiente operativo flessibile oggi.

La verità, che pochi a Bruxelles osano pronunciare, è che forse l’AI non è (ancora) regolabile nei termini in cui il legislatore europeo vorrebbe. È un oggetto politico instabile, simile alla finanza quantistica o al cambiamento climatico: lo puoi monitorare, mitigare, adattare, ma non ridurre a categorie giuridiche fisse.

E in questo contesto, posticipare non è solo un atto tecnico, è un segnale politico. Di fragilità. Di incertezza. Di una visione che ha perso la sincronia con il tempo della tecnologia.

Forse l’AI Act doveva essere un algoritmo a sua volta: adattivo, modulare, aggiornabile in tempo reale. Invece è un regolamento rigido, pensato come codice civile ottocentesco applicato a una materia che muta ogni sei mesi.

Una citazione da Kafka, sepolta tra i documenti del Parlamento europeo, sembra scritta per l’occasione: “La legge è un castello. Ma il castello è vuoto, e nessuno sa chi ne detiene le chiavi”.