Da Airbus a BNP Paribas, cresce la pressione sul legislatore europeo: “Così l’Europa resterà indietro nella corsa globale all’AI”. Ma Bruxelles è davvero pronta ad allentare le maglie della legge più severa al mondo sull’intelligenza artificiale?
Il conto alla rovescia è iniziato. Mentre l’AI Act, il regolamento europeo sull’intelligenza artificiale, si avvicina all’entrata in vigore prevista per agosto, il fronte degli oppositori si rafforza. Gli amministratori delegati di 44 grandi aziende europee, tra cui colossi come Airbus, BNP Paribas, Siemens, Heidelberg Materials e altri leader industriali e finanziari, hanno inviato una lettera aperta alla Presidente della Commissione Europea Ursula von der Leyen per chiedere una sospensione o una profonda revisione del provvedimento.
Il messaggio è chiaro: “Le regole dell’AI Act sono troppo complesse, sovrapposte, e minacciano la competitività dell’Europa”. Secondo quanto riportato dal Financial Times, le aziende firmatarie avvertono che la normativa rischia di ostacolare non solo lo sviluppo di campioni europei dell’AI, ma anche l’adozione della tecnologia da parte di tutta l’industria del continente.
Un freno alla competitività globale?
Nel cuore della critica c’è una preoccupazione concreta. Lo abbiamo detto già tante volte: l’Europa si sta dando regole troppo rigide proprio mentre Stati Uniti e Cina accelerano sul fronte dell’innovazione. Il paradosso europeo rischia di ripetersi: da un lato ambizioni digitali sempre più alte, dall’altro un impianto normativo che, per quanto animato da buone intenzioni (trasparenza, etica, sicurezza) è pronto a trasformarsi in un boomerang.
La lettera dei CEO si aggiunge alle pressioni già esercitate dalle Big Tech americane e da gruppi di ricerca, ma stavolta il segnale arriva dall’interno del sistema industriale europeo. E questo potrebbe fare la differenza.
Il nodo dei modelli fondazionali
Uno dei punti più caldi riguarda l’applicazione dell’AI Act ai cosiddetti foundation models, come Gemini di Google, Llama di Meta o GPT-4 di OpenAI. Questi modelli, alla base di chatbot, agenti intelligenti e strumenti di analisi avanzata, sono oggi il motore della nuova generazione di AI generativa. Il regolamento prevede obblighi severi per chi sviluppa o integra questi modelli: documentazione, valutazioni di impatto, tracciabilità dei dati, test di sicurezza. Requisiti che, sostengono le aziende, sono troppo onerosi per chi vuole scalare l’innovazione senza essere frenato da una burocrazia eccessiva.
La risposta dell’Ue: una mano sul freno?
Bruxelles sembra iniziare a recepire il messaggio. Mercoledì scorso, la Commissione ha incontrato i rappresentanti delle principali tech company statunitensi per discutere una nuova bozza “ammorbidita” dell’AI Act. Al centro del dialogo, la proposta di un “codice di condotta” volontario, che dovrebbe offrire una guida per le aziende, in una fase di transizione. Quel che è certo, guardando con attenzione a cosa sta accadendo, è che la Commissione sembra voler evitare uno scontro frontale con il settore, anche se, la sfida è delicata: come si fa a bilanciare innovazione e protezione dei diritti fondamentali senza diventare irrilevanti nella corsa globale all’AI?
L‘Europa a un bivio
Il caso AI Act è emblematico di una questione più ampia, che abbiamo già avuto modo di discutere più volte su queste pagine. Il tema è questo: l’Europa può permettersi di essere regolatore prima di essere innovatore? Certo, le regole sono essenziali per garantire trasparenza, sicurezza e fiducia, ma se diventano un ostacolo alla sperimentazione, il rischio è che i veri benefici dell’AI finiscano per arrivare da altre latitudini.
Il paradosso è, come dichiarato da uno dei firmatari della lettera, che l’AI Act, così com’è, rischia di proteggere i cittadini europei da un’innovazione che non avranno mai l’occasione di usare concretamente. La palla adesso è a Bruxelles a cui andrebbe ricordato che in gioco non c’è solo una legge, ma il futuro digitale del continente.