Sony sta sviluppando un prototipo di personaggio per PlayStation alimentato da intelligenza artificiale, come dimostrato in un video interno trapelato che mostra una versione di Aloy da Horizon Forbidden West in grado di interagire vocalmente con i giocatori durante il gameplay. Il video, narrato da Sharwin Raghoebardajal, direttore dell’ingegneria del software presso Sony Interactive Entertainment, evidenzia l’uso di tecnologie avanzate come OpenAI’s Whisper per la conversione da voce a testo, GPT-4 e Llama 3 per le conversazioni e il processo decisionale, il sistema interno di Sintesi Vocale Emozionale (EVS) di Sony per la generazione del parlato e la tecnologia Mockingbird per l’animazione facciale. Sebbene la demo sia stata eseguita su PC, Sony ha testato parti di questa tecnologia direttamente su console PS5 con “minimo impatto sulle prestazioni”.

Questa iniziativa di Sony si inserisce in una tendenza più ampia nel settore dei videogiochi verso l’integrazione dell’intelligenza artificiale. Nvidia, ad esempio, ha sviluppato il sistema Nvidia ACE, che sarà presente nel nuovo gioco multiplayer Mecha Break, previsto per il 2025 su PC, Xbox X/S e PlayStation 5. Questo sistema consente ai giocatori di interagire in linguaggio naturale con i personaggi del gioco, che possono identificare giocatori e oggetti tramite webcam utilizzando GPT-4o. Le voci dei personaggi non giocanti (NPC) sono generate combinando modelli Nvidia locali e intelligenza artificiale basata su cloud.

Nvidia ha recentemente presentato al CES 2025 il “PUBG Ally”, il primo Co-Playable Character (CPC), capace di fornire raccomandazioni strategiche in tempo reale, condividere equipaggiamenti, guidare veicoli e combattere nemici in PUBG. Questi personaggi AI autonomi utilizzano modelli linguistici di piccole dimensioni e intelligenza artificiale per la percezione visiva e audio, migliorando l’esperienza di gioco adattandosi alle tattiche dei giocatori.

Anche Microsoft sta collaborando con Inworld AI per portare personaggi AI su Xbox, permettendo agli sviluppatori di utilizzare personaggi generativi, trame e altro ancora. Inoltre, Microsoft ha creato il proprio modello Muse AI per la generazione di gameplay, inizialmente progettato per gli sviluppatori di giochi per creare ambienti di gioco per prototipi e ideazione.

L’integrazione dell’intelligenza artificiale nei videogiochi solleva interrogativi sul ruolo degli attori vocali e degli sviluppatori di giochi. Secondo un sondaggio del 2024 della Game Developers Conference (GDC), quasi la metà (49%) dei 3.000 intervistati ha dichiarato che strumenti di intelligenza artificiale generativa sono attualmente utilizzati nel loro ambiente di lavoro, con il 31% preoccupato per l’impatto sull’occupazione nel settore.

Sony ha una lunga storia nell’esplorazione dell’intelligenza artificiale e della robotica. Un esempio notevole è Aibo, un cane robotico introdotto per la prima volta nel 1999. Aibo è in grado di percepire suoni e rumori, vedere e muoversi in modo autonomo, evolvendosi grazie agli stimoli esterni forniti dal proprietario e dall’ambiente circostante.

Team Asobi, uno studio giapponese di proprietà di Sony Interactive Entertainment, ha sviluppato giochi come Astro Bot Rescue Mission e Astro’s Playroom, che integrano elementi di intelligenza artificiale per migliorare l’esperienza di gioco.

Un altro esempio di integrazione dell’intelligenza artificiale nei videogiochi è Detroit: Become Human, sviluppato da Quantic Dream e pubblicato da Sony Interactive Entertainment. Questo gioco d’avventura del 2018 si concentra sulle vicende di tre diversi androidi e riprende direttamente il contesto narrativo proposto in una demo pubblicata da Quantic Dream nel 2012 per mostrare la tecnologia di motion-capture all’epoca utilizzata su PlayStation 3.