“Riteniamo che le aziende, i governi e le organizzazioni che condividono questi valori debbano lavorare insieme per creare un’IA che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale”.
Google ha modificato la propria politica sull’intelligenza artificiale, eliminando un divieto esplicito sull’uso delle sue tecnologie per armamenti e sorveglianza. Questa decisione, avvenuta sei anni dopo l’adozione di rigide restrizioni, segna un significativo cambio di direzione e si inserisce in un più ampio contesto di ridefinizione dell’etica dell’IA da parte delle big tech. Anche OpenAI, nel corso dell’ultimo anno, ha adottato una revisione simile, segnalando un trend in crescita nel settore.
La nuova politica di Google afferma che l’azienda impiegherà l’IA in modo responsabile, garantendo “un’adeguata supervisione umana, la dovuta diligenza e meccanismi di feedback per allinearsi agli obiettivi degli utenti, alla responsabilità sociale e ai principi ampiamente accettati del diritto internazionale e dei diritti umani”. Tuttavia, la rimozione del divieto esplicito sull’uso bellico e di sorveglianza solleva interrogativi sul livello di controllo che Google eserciterà effettivamente sui propri strumenti e sulle applicazioni sviluppate da governi o aziende partner.