Anche i giganti si inchinano, ma non senza mordersi la lingua. Dopo OpenAI, è il turno di Google: il colosso di Mountain View ha annunciato di aver firmato il Codice di condotta AI UE, la tanto dibattuta iniziativa volontaria che dovrebbe (in teoria) garantire lo sviluppo sicuro e responsabile dei cosiddetti modelli fondazionali nell’ambito europeo. Peccato che il sostegno, più che entusiasta, suoni come un “sì, ma con riserva”. E il sottotesto è chiarissimo: la firma è uno scudo diplomatico, non un atto di fede normativa.
Mentre Meta prende tempo e snobba il Codice citando “incertezze legali”, Google preferisce entrare nel salotto buono di Bruxelles, pur sottolineando con garbo istituzionale che qualcosa puzza. Letteralmente: “Siamo preoccupati che l’AI Act e il Codice possano rallentare lo sviluppo e la diffusione dell’AI in Europa”. Un eufemismo elegante per dire che l’Unione rischia di strozzare la propria industria dell’intelligenza artificiale con le sue stesse mani, ingessata da regole che sembrano scritte più per contenere che per stimolare.
Nel comunicato ufficiale, Google non si nasconde: accoglie con favore le revisioni del testo che hanno reso il Codice “più vicino agli obiettivi di innovazione ed economia dell’Europa”, ma lancia una stilettata ben mirata. Se il risultato finale sarà un sistema che rallenta le approvazioni, mette a rischio i segreti industriali e si discosta dal diritto d’autore dell’UE, allora la competitività del continente sarà il primo cadavere eccellente del regolamento.
E qui sta il paradosso. L’Europa che vuole essere sovrana e protagonista nell’intelligenza artificiale sta costruendo una rete così fitta di vincoli da soffocare sul nascere ciò che dice di voler proteggere. Il Codice di condotta AI UE, che nelle intenzioni dovrebbe garantire l’adozione responsabile dei modelli generativi, rischia di diventare un freno a mano tirato, proprio mentre Stati Uniti e Cina accelerano in curva.
I numeri parlano chiaro. Secondo le stime citate dalla stessa Google, l’adozione massiva dell’intelligenza artificiale in Europa potrebbe generare un impatto economico annuo pari all’8% del PIL entro il 2034, ovvero circa 1.400 miliardi di euro. Ma attenzione: questo scenario è valido solo se l’adozione sarà “rapida e diffusa”. Due parole che non si sposano benissimo con la burocrazia algoritmica made in Brussels.
Certo, firmare il Codice ha il suo valore simbolico e serve a mantenere la porta aperta. Ma la vera partita si gioca ora, nella definizione dei meccanismi di applicazione e nelle pieghe regolatorie dove spesso si annida il vero potere. Google si dice “impegnata a collaborare con l’AI Office” per rendere il Codice proporzionato e adatto all’evoluzione dinamica della tecnologia. Una promessa che suona anche come avvertimento implicito: nessuno, nemmeno i più pazienti, investirà in una giungla normativa.
L’AI, per definizione, corre più veloce dei legislatori. Eppure in Europa si continua a inseguirla con strumenti pensati per la rivoluzione industriale, con l’aggravante di una cultura del rischio zero che tradisce un’antica allergia al cambiamento. L’AI Act, se applicato in modo rigido, rischia di trasformarsi in un trattato di auto-sabotaggio strategico. I modelli fondazionali non si sviluppano in laboratori isolati ma in ecosistemi aperti, dove l’accesso ai dati, la libertà di iterazione e la tutela del know-how sono essenziali.
Cosa succede, invece, se il regolatore chiede di rivelare informazioni proprietarie, rallenta l’approvazione dei sistemi e crea obblighi che non esistono in nessun’altra giurisdizione concorrente? Succede che le aziende vanno altrove. Succede che l’Europa resta spettatrice mentre altri scrivono il futuro dell’intelligenza artificiale. Succede, insomma, ciò che la storia ci ha già insegnato con internet, semiconduttori e cloud.
Il Codice, per ora, è volontario. Ma le dinamiche sono tutto fuorché facoltative. I segnali di fuga strategica ci sono già, e non servono grandi modelli predittivi per leggere la direzione. OpenAI, Google e altri attori globali firmano per restare nel gioco, non perché credano che le regole attuali siano ottimali. È una firma a tempo, carica di condizioni implicite e pressioni future.
Nel frattempo, tra comunicati di circostanza e tavoli di lavoro, il rischio è che l’Europa continui a gestire l’intelligenza artificiale come se fosse un rifiuto speciale, da trattare con pinze e guanti. Eppure si parla dello strumento che più di ogni altro definirà la produttività, la difesa, la salute e la cultura nel prossimo decennio. Un’Europa che perde il treno dell’AI non solo rinuncia a miliardi, ma abdica alla possibilità di incidere sulla nuova architettura geopolitica della tecnologia.
Google, nel frattempo, si prepara a lavorare “attivamente” per influenzare lo sviluppo del Codice. Tradotto: a negoziare ogni comma, ogni obbligo, ogni procedura, per evitare che l’Europa si trasformi in un laboratorio normativo privo di modelli da mostrare. Perché regolamentare è necessario, ma farlo in assenza di protagonisti industriali equivale a legiferare sul nulla.
Il Codice di condotta AI UE non è una cattiva idea. È solo un’idea a rischio di essere implementata male. E in un contesto dove la velocità vale quanto la qualità, l’errore più grave sarebbe quello di pensare che basti firmare un accordo per costruire un futuro digitale. La vera AI europea non si scrive con inchiostro, ma con codice, investimenti e coraggio.