Sembra una battuta da cabaret futurista, ma è tutto reale: Google AI Overviews, il fiore all’occhiello dell’era post-search, non sa nemmeno in che anno siamo. Letteralmente. A dodici mesi dal suo debutto trionfale, l’intelligenza artificiale generativa di Mountain View continua a inciampare su dettagli che persino un aspirante stagista umano non sbaglierebbe. Il 2025? Un mistero. Le date? Variabili quantistiche. Il contesto? Fluttuante come una risposta di ChatGPT usato senza prompt ben strutturati.
Il problema, per chi ha occhi per vedere (e un minimo di dignità semantica), non è che l’AI sbaglia. È che continua a sbagliare sempre le stesse cose, nonostante miliardi di dati e miliardi di dollari.
Chi pensava che la Search Generative Experience (SGE) avrebbe rivoluzionato la ricerca, si ritrova oggi davanti a un fenomeno più simile a un oracolo di Delfi con la febbre: parla per enigmi, sbaglia le epoche, offre sintesi mozzate e a volte pericolosamente fuorvianti. Ma con i colori pastello e un linguaggio inclusivo. Che teneri.
Ironia della sorte, la promessa era una sola: rendere la ricerca più intelligente. Più conversazionale. Più umana, dicono. Ma ecco il paradosso che Google finge di non vedere: le AI Overview sono “umane” nei peggiori sensi del termine. Dimenticano, confondono, sbarellano. Solo che, a differenza degli umani, non imparano sul serio.
Il cuore del disastro? La mancanza di senso temporale. Una AI che compila panoramiche informative non può non sapere che anno è. Non è un bug marginale. È un fallimento epistemico strutturale. Se l’Overview dice che siamo nel 2023 mentre siamo nel 2025, ogni dato, ogni evento, ogni contesto storico collegato viene trasformato in disinformazione plausibile. Questo non è un errore: è una bomba logica a orologeria.
Google, dal canto suo, reagisce come chi ha già investito troppo per tornare indietro. Sta spingendo AI ovunque, in ogni angolo del suo ecosistema, da Workspace a Android, passando per Gmail che ora ti corregge le email col tono di un coach motivazionale con un problema di autostima. Ma nessuno, dentro o fuori Google, sembra voler affrontare il dilemma centrale: la qualità dell’informazione generata è peggiorata. Non migliorata. Più che Search Generative Experience, dovremmo chiamarla Schizofrenic Guessing Engine.
Gli ingegneri di Google, quelli veri, lo sanno. Ma sono chiusi in una spirale in cui ogni errore viene trattato come “un’occasione per migliorare il modello”, ogni falla come “un caso limite”. Intanto, l’utente medio legge: “Nel 2023 OpenAI ha rilasciato GPT-4” e si fida. Anche se siamo nel 2025, GPT-5 è ovunque e il mondo è cambiato tre volte.
Secondo la MIT Technology Review, questi errori derivano da un mix tossico tra hallucination algoritmica e debolezza nei sistemi di aggiornamento temporale. Tradotto: l’AI di Google non riesce a capire quali informazioni sono obsolete e quali no, e le mischia come un DJ confuso che passa techno anni ’90 in un rave del 2040.
Ma perché accade tutto questo? Perché Google ha costruito un colosso fondato su keyword, link e indicizzazione statica. Ora, nel tentativo di rincorrere OpenAI, ha innestato modelli LLM su un’infrastruttura che non è progettata per il ragionamento dinamico ma per il ranking passivo. È come mettere un motore quantistico su una Fiat Panda: non solo non va, ma esplode.
Nel frattempo, i giornalisti (quelli sopravvissuti all’estinzione digitale) stanno iniziando a divertirsi. Wired ha evidenziato i casi più grotteschi: risposte che confondono guerre passate con quelle in corso, date di eventi sportivi sfalsate, articoli referenziati che non esistono. Il New York Times è stato ancora più netto: la nuova AI-powered search non è in grado di gestire nemmeno le query di base. Zero empatia, zero contesto, solo autocomplete glorificato.
Intanto, l’utente, tra un click e uno scroll, si abitua. Si abitua al fatto che le risposte siano imprecise, che la verità sia fluida, che la datazione sia opzionale. E qui il problema diventa sistemico: una società che si affida a sistemi informativi senza coscienza temporale è una società che perde la memoria storica, la capacità critica, l’orientamento cognitivo.
Come diceva Orwell, “Chi controlla il passato controlla il futuro. Chi controlla il presente controlla il passato.” Google, con le sue AI che vivono in un eterno presente distorto, non controlla più nulla. Nemmeno il calendario.
E se proprio volete una curiosità finale per completare il cortocircuito: uno dei bug più ricorrenti in SGE riguarda… il compleanno di Google stesso. Secondo le Overview, a volte è nato nel 1998. Altre nel 2004. Qualche volta nel 2022.
Ma tanto, il tempo, nell’AI di Google, è solo un’opinione.