Apple ha rimosso una categoria di app di intelligenza artificiale che promettevano di creare “immagini di nudo non consensuali”, ha riferito 404 Media.

Inizialmente le app utilizzavano Instagram di Meta per promuoversi, con la promessa di immagini sessualmente esplicite gratuite. Gli annunci hanno poi portato gli utenti sull’App Store, ha affermato il notiziario .

Un portavoce di Meta ha affermato che la società “non consente annunci che contengono contenuti per adulti e quando identifichiamo annunci in violazione lavoriamo rapidamente per rimuoverli”.

La rimozione di queste app è l’ultima battaglia tra le aziende tecnologiche e l’attenzione indesiderata dell’intelligenza artificiale.

Un dipendente di Microsoft che lavora sull’intelligenza artificiale ha dichiarato a marzo che il generatore di immagini Copilot Designer dell’azienda stava creando immagini violente e sessuali e che la società non stava intraprendendo le azioni appropriate.

Microsoft alla fine ha bloccato le istruzioni utilizzate per creare le immagini grafiche.

Google ha temporaneamente sospeso le immagini generate dall’intelligenza artificiale dal suo strumento Gemini a febbraio, dopo che alcune risposte di testo e immagini generate dal modello hanno mostrato carenze nella precisione della gara.

L’amministratore delegato Sundar Pichai ha promesso di risolvere il problema, definendo i risultati “completamente inaccettabili” in una nota interna.

La questione delle immagini deepfake ha attirato l’attenzione nazionale all’inizio di quest’anno dopo che la rete di social media X ha bloccato le ricerche di Taylor Swift dopo che immagini esplicite di lei generate dall’intelligenza artificiale erano state diffuse in tutto il sito.

La Casa Bianca si è detta allarmata dalla diffusione delle foto fraudolente e ha invitato il Congresso a intraprendere un’azione legislativa.