C’è qualcosa di profondamente ironico nel fatto che l’azienda che ha indicizzato il sapere umano stia inciampando proprio dove la precisione non è un optional ma una questione di vita o di qualità della vita. Le Panoramiche AI di Google Search, presentate come l’evoluzione naturale dello snippet in evidenza, promettono risposte rapide, ordinate, rassicuranti. Il problema è che la rassicurazione, in medicina, è spesso il primo sintomo di un errore concettuale. I giornalisti del Guardian hanno fatto ciò che qualsiasi CTO con un minimo di istinto da stress test farebbe: hanno provato a rompere il giocattolo. Non con prompt esoterici, ma con query banali, quotidiane, quelle che milioni di persone digitano quando sono spaventate, stanche o semplicemente confuse davanti a un referto.
Il risultato è stato un catalogo di risposte apparentemente sensate ma strutturalmente sbagliate. Una panoramica AI che suggerisce ai pazienti con tumore al pancreas di evitare cibi grassi è un esempio perfetto di come un riassunto corretto nel tono possa essere devastante nel contenuto. Chiunque abbia una conoscenza clinica di base sa che in quei casi l’assorbimento dei grassi è compromesso e che spesso sono necessari enzimi pancreatici e diete ad alta densità calorica. Tradotto per il pubblico generalista, l’AI non ha solo semplificato. Ha invertito il senso clinico. Non è un dettaglio. È un bug semantico con conseguenze potenzialmente gravi.
Ancora più interessante, e più inquietante, è il caso dei test di funzionalità epatica. L’AI ha prodotto una colata di numeri, range normali, valori di riferimento, senza spiegare cosa li influenza, perché variano, quando sono clinicamente rilevanti. Una risposta che sembra uscita da un manuale di laboratorio, ma senza il contesto che trasforma i numeri in decisioni. Per un medico quei range sono un punto di partenza. Per un paziente sono una sentenza percepita. Qui non siamo davanti a un errore fattuale, ma a un errore di design cognitivo. Google ha scambiato la completezza apparente per utilità reale.
La reazione di Google è stata rapida e prevedibile. Disattivazione delle panoramiche AI per alcune query sensibili, come gli intervalli dei test epatici. Una toppa tecnica che sa di rollback tattico più che di riflessione strategica. Perché basta una piccola riformulazione, ad esempio “intervallo di riferimento LFT”, per riattivare la macchina. Questo dettaglio racconta molto di come funzionano queste panoramiche. Non sono governate da una reale comprensione del rischio, ma da blacklist e pattern linguistici. È sicurezza per regex, non per impatto.
La difesa ufficiale è altrettanto standard. Google sostiene che la stragrande maggioranza delle panoramiche AI sia accurata e paragona il sistema agli snippet in evidenza. È un confronto fuorviante. Lo snippet tradizionale è una citazione estratta, imperfetta ma riconoscibile come tale. La panoramica AI è una sintesi generativa che parla con voce unica, senza attrito, senza esitazioni. La differenza non è tecnologica, è psicologica. Gli esseri umani tendono a interpretare una voce fluida e coerente come competente. È lo stesso meccanismo che rende convincenti i truffatori esperti e i keynote speaker mediocri. In sanità, questo bias cognitivo è letale.
Il punto centrale, che molti commentatori evitano per non disturbare la narrativa dell’innovazione, è il seguente: Google non sta ottimizzando per la verità clinica, ma per la riduzione della frizione cognitiva. L’obiettivo dichiarato è fornire una risposta univoca, chiara, immediata. È perfetto per sapere che ore sono a Tokyo o chi ha vinto le elezioni in Portogallo. È disastroso quando la realtà è probabilistica, contestuale, dipendente da variabili individuali. La medicina non è un database. È un sistema complesso, pieno di eccezioni, trade off, linee guida che cambiano con l’età, il sesso, la storia clinica, il contesto socioeconomico. Riassumerla in un paragrafo è un atto di arroganza computazionale.
Il rischio sistemico è amplificato da un dato che non ha bisogno di molte interpretazioni. Google controlla circa il 91 percento del traffico di ricerca globale. In termini di potere informativo, è un monopolio cognitivo di fatto. Un singolo riassunto sbagliato, se posizionato in cima alla pagina, non è solo un errore. È un evento di diffusione di massa. Si replica, viene condiviso, screenshotato, citato in forum e gruppi WhatsApp. La velocità con cui una cattiva informazione può diventare senso comune supera di gran lunga la capacità delle correzioni ufficiali di raggiungere lo stesso pubblico.
C’è poi un aspetto più sottile, che interessa chi si occupa di strategia tecnologica e non solo di etica. Le Panoramiche AI stanno ridefinendo il contratto implicito tra utente e motore di ricerca. Storicamente Google era un intermediario. Ti indicava fonti, ti lasciava scegliere. Ora è un autore. Scrive, sintetizza, decide cosa è rilevante. Questo spostamento di ruolo comporta una responsabilità completamente diversa, soprattutto in ambito medico. Non basta dire che le fonti sono affidabili. Bisogna mostrare come sono state pesate, quali incertezze sono state scartate, quali controversie esistono. La trasparenza non è un link in piccolo. È una struttura narrativa che ammette il dubbio.
Nel campo della salute, il tono conta quanto il contenuto. Un linguaggio sicuro, privo di condizionali, viene interpretato come definitivo. È un fenomeno ben documentato nella comunicazione del rischio. Le persone non cercano solo informazioni. Cercano sollievo dall’ansia. Un’AI che fornisce risposte lisce e ordinate soddisfa questo bisogno emotivo, ma al prezzo di una falsa certezza. In questo senso le Panoramiche AI non sono solo uno strumento informativo. Sono un ansiolitico cognitivo non regolamentato.
Google afferma che queste panoramiche possono essere utili per spiegazioni rapide e per indirizzare verso fonti affidabili. È vero, in teoria. In pratica, la maggior parte degli utenti non clicca. Si ferma al riassunto. Lo stesso Google lo sa, perché è lo stesso principio che ha guidato l’evoluzione degli snippet e ora delle risposte zero click. Qui però il costo non è una perdita di traffico per gli editori. È una possibile distorsione delle decisioni sanitarie individuali.
La soluzione non è spegnere tutto e tornare al 2010. Sarebbe ingenuo e poco realistico. La soluzione passa da linee guida molto più rigide per i temi medici, da un rallentamento deliberato della risposta, da un linguaggio che segnali incertezza, da disclaimer che non siano legali ma cognitivi. Serve un design che inviti a parlare con un professionista, non che simuli di esserlo. Serve soprattutto una gerarchia di sicurezza che non possa essere aggirata con una riformulazione semantica.
C’è una frase attribuita a George Box che ogni ingegnere dovrebbe avere incisa sulla scrivania. Tutti i modelli sono sbagliati, ma alcuni sono utili. In medicina, un modello sbagliato ma persuasivo è peggio di nessun modello. Google è abbastanza grande, abbastanza ricca e abbastanza intelligente da saperlo. Se continuerà a spingere risposte univoche in un dominio che per definizione non lo è, il futuro della ricerca sanitaria online non sarà un progresso ordinato. Sarà un gioco d’azzardo informativo, dove l’algoritmo lancia i dadi e l’utente paga il conto.