Un gruppo di oltre 60 parlamentari britannici ha accusato Google DeepMind di violare gli impegni internazionali assunti per lo sviluppo sicuro dell’intelligenza artificiale, in una lettera aperta diffusa in esclusiva a TIME il 29 agosto 2025. La lettera, pubblicata dal gruppo attivista PauseAI UK, denuncia che il rilascio del modello Gemini 2.5 Pro da parte di Google, avvenuto a marzo senza informazioni dettagliate sui test di sicurezza, rappresenta un pericoloso precedente. Tra i firmatari figurano la campionessa dei diritti digitali Baroness Beeban Kidron e l’ex segretario alla Difesa Des Browne. La lettera chiede a Google di chiarire il suo impegno per la sicurezza dell’IA.

Per anni, esperti di IA, incluso il CEO di Google DeepMind Demis Hassabis, hanno avvertito che l’IA potrebbe comportare rischi catastrofici per la sicurezza pubblica e la sicurezza nazionale, ad esempio aiutando potenziali bioterroristi a progettare un nuovo patogeno o hacker a compromettere le infrastrutture critiche. Per gestire tali rischi, durante un vertice internazionale sull’IA co-organizzato dai governi del Regno Unito e della Corea del Sud nel febbraio 2024, Google, OpenAI e altri hanno firmato gli impegni sulla sicurezza dell’IA di frontiera. I firmatari si sono impegnati a “segnalare pubblicamente” le capacità del sistema e le valutazioni dei rischi e a spiegare se e come attori esterni, come gli istituti governativi di sicurezza dell’IA, sono stati coinvolti nei test. Senza una regolamentazione vincolante, il pubblico e i legislatori si sono affidati principalmente alle informazioni derivanti dagli impegni volontari per comprendere i rischi emergenti dell’IA.

Tuttavia, quando Google ha rilasciato Gemini 2.5 Pro il 25 marzo, affermando che superava i sistemi di IA rivali nei benchmark del settore con “margini significativi”, l’azienda ha trascurato di pubblicare informazioni dettagliate sui test di sicurezza per oltre un mese. La lettera afferma che ciò non solo riflette un “fallimento nel rispettare” i suoi impegni internazionali sulla sicurezza, ma minaccia anche le fragili norme che promuovono uno sviluppo dell’IA più sicuro. “Se aziende leader come Google trattano questi impegni come opzionali, rischiamo una pericolosa corsa a distribuire IA sempre più potenti senza adeguate salvaguardie”, ha scritto Browne in una dichiarazione a corredo della lettera.

Un portavoce di Google DeepMind ha dichiarato a TIME via e-mail: “Stiamo adempiendo ai nostri impegni pubblici, inclusi gli impegni sulla sicurezza dell’IA di frontiera di Seoul. Come parte del nostro processo di sviluppo, i nostri modelli subiscono rigorosi controlli di sicurezza, inclusi quelli dell’UK AISI e di altri tester di terze parti, e Gemini 2.5 non fa eccezione”.

La lettera aperta chiede a Google di stabilire una tempistica specifica per quando i rapporti di valutazione della sicurezza saranno condivisi per i futuri rilasci. Google ha pubblicato per la prima volta la scheda del modello Gemini 2.5 Pro, un documento in cui solitamente condivide informazioni sui test di sicurezza, 22 giorni dopo il rilascio del modello. Tuttavia, il documento di otto pagine conteneva solo una breve sezione sui test di sicurezza. Solo il 28 aprile, oltre un mese dopo che il modello era stato reso disponibile al pubblico, la scheda del modello è stata aggiornata con un documento di 17 pagine contenente dettagli su valutazioni specifiche, concludendo che Gemini 2.5 Pro ha mostrato miglioramenti “significativi” ma non ancora pericolosi in ambiti come l’hacking. L’aggiornamento ha anche dichiarato l’uso di “tester esterni di terze parti”, ma non ha rivelato chi fossero o se l’UK AI Security Institute fosse tra di essi, cosa che la lettera cita anche come violazione dell’impegno di Google.

Dopo aver precedentemente omesso di rispondere a una richiesta dei media per commentare se avesse condiviso Gemini 2.5 Pro con i governi per i test di sicurezza, un portavoce di Google DeepMind ha dichiarato a TIME che l’azienda ha condiviso Gemini 2.5 Pro con l’UK AI Security Institute, nonché con un “gruppo diversificato di esperti esterni”, tra cui Apollo Research, Dreadnode e Vaultis. Tuttavia, Google afferma di aver condiviso il modello con l’UK AI Security Institute solo dopo il rilascio di Gemini 2.5 Pro il 25 marzo.

Il 3 aprile, poco dopo il rilascio di Gemini 2.5 Pro, il direttore senior di Google e capo del prodotto per Gemini, Tulsee Doshi, ha dichiarato a TechCrunch che la ragione per cui mancava un rapporto di sicurezza era che il modello era un rilascio “sperimentale”, aggiungendo che erano già stati eseguiti test di sicurezza. Ha detto che lo scopo di questi rilasci sperimentali è di rilasciare il modello in modo limitato, raccogliere feedback dagli utenti e migliorarlo prima del lancio in produzione, momento in cui l’azienda avrebbe pubblicato una scheda del modello dettagliando i test di sicurezza già condotti. Tuttavia, pochi giorni prima, Google aveva distribuito il modello a tutti i suoi centinaia di milioni di utenti gratuiti, affermando “vogliamo mettere il nostro modello più intelligente nelle mani di più persone il prima possibile”, in un post su X.

La lettera aperta afferma che “etichettare un modello pubblicamente accessibile come ‘sperimentale’ non solleva Google dalle sue obbligazioni di sicurezza” e chiede inoltre a Google di stabilire una definizione più sensata di distribuzione. “Le aziende hanno una grande responsabilità pubblica nel testare nuove tecnologie e non coinvolgere il pubblico in esperimentazioni”, afferma il vescovo di Oxford, Steven Croft, che ha firmato la lettera. “Immaginate un costruttore di automobili che rilascia un veicolo dicendo: ‘vogliamo che il pubblico sperimenti e ci dia feedback quando si schiantano o quando urtano i pedoni e quando i freni non funzionano’”, aggiunge.

Croft mette in discussione le restrizioni sulla fornitura di rapporti di sicurezza al momento del rilascio, riducendo la questione a una questione di priorità: “Quanto del [grande] investimento di Google nell’IA viene canalizzato nella sicurezza pubblica e nella rassicurazione e quanto va in potenza di calcolo enorme?”

Google non è l’unico gigante del settore a sembrare ignorare gli impegni sulla sicurezza. xAI di Elon Musk non ha ancora rilasciato alcun rapporto di sicurezza per Grok 4, un modello di IA rilasciato a luglio. A differenza di GPT-5 e altri lanci recenti, il rilascio di OpenAI del suo strumento Deep Research a febbraio non ha incluso un rapporto di sicurezza lo stesso giorno. L’azienda afferma di aver effettuato “rigorosi test di sicurezza”, ma non ha pubblicato il rapporto fino a 22 giorni dopo.

Joseph Miller, direttore di PauseAI UK, afferma che l’organizzazione è preoccupata per altri casi di apparenti violazioni e che l’attenzione su Google è dovuta alla sua vicinanza. DeepMind, il laboratorio di IA acquisito da Google nel 2014, ha ancora sede a Londra. Il Segretario di Stato per la Scienza, l’Innovazione e la Tecnologia del Regno Unito, Peter Kyle, ha dichiarato durante la campagna elettorale del 2024 che avrebbe “richiesto” alle principali aziende di IA di condividere i test di sicurezza, ma a febbraio è stato riferito che i piani del Regno Unito per regolamentare l’IA sono stati ritardati mentre cercavano di allinearsi meglio all’approccio permissivo dell’amministrazione Trump. Miller afferma che è ora di sostituire gli impegni aziendali con “una vera regolamentazione”, aggiungendo che “gli impegni volontari non funzionano”.