C’è una frase che nessuno a Menlo Park vuole sentire ripetere a voce alta, ma che a Bruxelles cominciano a sussurrare come un mantra: “Il futuro dell’intelligenza artificiale passerà anche dal controllo politico”. E non è un’iperbole da burocrate con troppi caffè. L’EU AI Act non è più soltanto un documento tecnico, è diventato un campo di battaglia culturale e strategico, e il nuovo Codice di Pratica per i modelli di intelligenza artificiale di uso generale sta rapidamente trasformandosi nel simbolo di chi sta scegliendo di collaborare e di chi vuole continuare a giocare da anarchico californiano.
La notizia che fa tremare le chat interne di più di un dipartimento legale arriva da Anthropic. I fondatori della società, cresciuti nel culto della “AI Alignment”, hanno annunciato con entusiasmo che firmeranno il Codice europeo. Non solo: hanno elogiato la flessibilità degli standard di sicurezza europei, sostenendo che possono stimolare l’innovazione invece di soffocarla. Un messaggio che sa tanto di endorsement strategico, condito da una frecciata indiretta a chi, come Meta, si lamenta ogni volta che sente la parola “regolamentazione”. E non si sono fermati a un generico “sì, ci piace”. Hanno citato la valutazione dei rischi catastrofici, inclusi quelli legati alle armi chimiche e biologiche, roba che farebbe sudare freddo persino ai responsabili del DARPA.
Meta, per contro, ha deciso di gridare al mondo che non firmerà. Perché? Perché secondo Zuckerberg & co. l’Europa sta esagerando, vuole mettere le mani ovunque e trasformare la creatività delle aziende in una burocrazia infinita. Non è la prima volta che Meta dipinge Bruxelles come un club di burocrati con manie di grandezza. L’ha già fatto sul Digital Services Act, lo ha ripetuto sul Digital Markets Act e ora con l’AI Act sembra quasi stia recitando la stessa sceneggiatura, come un cattivo di un film di serie B che ripete la stessa battuta in ogni sequel.
La cosa più interessante, però, non è l’ennesima lamentela di Meta, ma l’effetto domino che si sta creando. OpenAI ha già dichiarato che firmerà, Mistral pure, e Anthropic ha fatto sapere che non solo firmerà, ma considera il Codice un passo fondamentale per rendere l’Europa un player competitivo nella corsa globale all’AI. Questa narrativa non è casuale, è un posizionamento. In un mondo in cui la fiducia dei regolatori potrebbe presto valere quanto la potenza di calcolo, presentarsi come “l’azienda affidabile che lavora con le istituzioni” potrebbe significare accaparrarsi contratti governativi miliardari e partnership universitarie.
E Microsoft? Qui la partita si fa quasi divertente. Brad Smith, presidente e volto diplomatico di Redmond, ha dichiarato che “probabilmente firmeremo, ma prima vogliamo leggere i documenti”. Una frase che sa tanto di “ci stiamo preparando a firmare, ma vogliamo controllare i dettagli per non sembrare troppo servili”. Perché la verità è semplice: Microsoft è già immersa in rapporti stretti con l’Unione Europea e ha interesse a mantenere questo canale aperto. L’azienda ha investito miliardi in data center europei e non può permettersi di essere vista come un nemico della compliance. Firmare il Codice significherebbe, per loro, non solo proteggersi da futuri attacchi legali ma anche apparire come il partner ideale per progetti di AI governativa e infrastrutturale.
Poi c’è Google, o meglio Alphabet, che per ora si mantiene in un prudente silenzio. Non è un segreto che l’azienda sia inclusa nell’elenco dei fornitori obbligati a rispettare il Codice, e i suoi avvocati stanno già analizzando ogni riga per capire come trasformare l’adesione in un vantaggio competitivo. Il sospetto è che stiano solo aspettando il momento giusto per fare l’annuncio, magari con un comunicato altisonante in cui spiegheranno come “la loro missione è rendere l’intelligenza artificiale sicura e accessibile a tutti”. Nel frattempo, ogni ora che passa senza una loro dichiarazione ufficiale alimenta le speculazioni e tiene accesi i riflettori sulla questione.
Perché tutta questa agitazione? Perché il Codice, anche se formalmente volontario, rappresenta una sorta di corsia preferenziale per la conformità alle regole dell’AI Act. Firmarlo ora significa essere tra i “buoni” quando, dal 2 agosto, entreranno in vigore gli obblighi per i modelli di intelligenza artificiale di uso generale. Significa poter dire agli investitori “siamo già pronti, siamo compliant”, mentre i competitor litigano con i regolatori e affrontano indagini che possono durare mesi. È marketing legale, è brand positioning, è politica industriale travestita da etica.
Qualcuno potrebbe obiettare che Meta ha ragione, che la regolamentazione eccessiva soffoca l’innovazione. Certo, è un argomento che suona bene nei podcast per startupper della Silicon Valley, ma meno convincente quando il mercato europeo è ancora uno dei più redditizi e in crescita per i servizi digitali. La verità è che, per molte aziende, il costo di essere percepite come ostili alla regolamentazione è molto più alto del costo di rispettarla. E questo Meta lo sa benissimo, ma continua a comportarsi come se fosse ancora il 2012, quando bastava un “move fast and break things” per giustificare tutto.
Un dettaglio che vale la pena sottolineare è che il Codice non è solo un insieme di raccomandazioni generiche. Parla di valutazione trasparente dei rischi, di framework di sicurezza obbligatori, di mitigazione dei rischi sistemici, inclusi quelli catastrofici. È un linguaggio che, per un regolatore europeo, suona rassicurante, ma per un’azienda come Meta significa esporre i propri processi interni a una trasparenza che non ha mai amato. Ecco perché l’azienda preferisce attaccare, perché sa che la vera battaglia non è sulla filosofia, ma sul controllo delle informazioni.
Chi sarà il prossimo a firmare? La risposta più logica è che Microsoft ufficializzerà l’adesione prima del 1° agosto, con un tempismo perfetto per guadagnare qualche titolo di giornale e fare un po’ di pressione sugli indecisi. Google seguirà poco dopo, probabilmente cercando di presentarsi come il leader morale di questa nuova era “responsabile” dell’AI. Non mi sorprenderei se qualche attore meno noto, magari una startup europea, sfruttasse l’occasione per farsi pubblicità e posizionarsi come “il paladino dell’AI etica made in Europe”.
Il gioco è aperto, e chi pensa che si tratti solo di etica non ha capito la posta in gioco. Non è una questione di essere buoni o cattivi. È una questione di potere. Firmare o non firmare il Codice non definisce solo le relazioni con Bruxelles, ma chi controllerà i futuri mercati dell’AI in Europa. E in questo gioco, anche una firma può valere miliardi.