Google ha recentemente attirato l’attenzione per aver diffuso informazioni errate attraverso il suo strumento AI Overview, in particolare riguardo al gioco indie “Trash Goblin” sviluppato dallo studio britannico Spilt Milk. Il sistema ha erroneamente affermato che i giocatori potessero danneggiare gli oggetti durante la pulizia, un’affermazione completamente falsa. Questa imprecisione è stata evidenziata dal giornalista Stephen Totilo nel suo newsletter Game File, suscitando preoccupazioni sulla affidabilità dell’intelligenza artificiale di Google.
Il problema principale risiede nella tendenza dell’AI a “allucinare”, ossia a generare informazioni errate presentate con grande convinzione. Questo fenomeno è particolarmente problematico in ambiti specializzati come i videogiochi, dove le regole e le meccaniche sono ben definite e facilmente verificabili dalla comunità. Un errore come quello riguardante “Trash Goblin” diventa immediatamente evidente per i giocatori, minando la fiducia nell’affidabilità dell’AI.
Google ha progettato gli AI Overviews per fornire risposte rapide e sintetiche alle query degli utenti, ma in pratica, questi strumenti possono inventare informazioni quando i dati disponibili sono scarsi o ambigui. Questo è stato paragonato dai giocatori a vecchi trucchi falsi trovati nei forum online, ma con l’aggravante che ora provengono da una fonte autorevole come Google.
La questione solleva interrogativi più ampi sulla responsabilità delle piattaforme tecnologiche nella diffusione di informazioni. Se anche un errore apparentemente insignificante in un gioco può causare confusione, quali potrebbero essere le implicazioni di errori simili in ambiti più critici come la salute, la finanza o la politica? La fiducia degli utenti nelle informazioni fornite dall’intelligenza artificiale è fondamentale, e incidenti come questo mettono in luce le sfide nel bilanciare velocità, accuratezza e affidabilità.
In risposta alle critiche, Google ha promesso di migliorare la precisione degli AI Overviews, ma resta da vedere se queste modifiche saranno sufficienti a ripristinare la fiducia degli utenti. Nel frattempo, gli utenti sono invitati a verificare sempre le informazioni ottenute attraverso l’AI con fonti affidabili, per evitare di cadere vittime di “hallucination” digitali.
Fonte: (Yahoo News UK)