I chatbot basati su intelligenza artificiale sono ormai compagni discreti della nostra quotidianità. Rispondono con sicurezza, spiegano concetti complessi con una prosa invidiabile, mettono insieme ragionamenti che scorrono lisci come un editoriale ben scritto. E proprio qui nasce il problema. Perché dietro questa apparente competenza si nasconde un rischio sottile, sempre più discusso nel dibattito accademico e tecnologico: l’epistemia, ovvero l’illusione che l’AI sappia davvero ciò che dice.

Il termine non indica un bug tecnico né un malfunzionamento del software. Descrive piuttosto un cortocircuito cognitivo. L’intelligenza artificiale produce linguaggio che appare sensato, coerente e autorevole, inducendo l’utente a scambiare la forma per sostanza, la fluidità per conoscenza, lo stile per verità. Ma i modelli linguistici di ultima generazione, per quanto sofisticati, non comprendono il mondo. Non hanno intenzioni, consapevolezza o una mappa concettuale della realtà. Funzionano individuando pattern statistici in enormi quantità di testi, calcolando quali parole hanno più probabilità di seguire altre parole in un determinato contesto.

Il risultato è un linguaggio che “suona giusto”, ma che non nasce da un atto di comprensione. È come una recita perfettamente imparata, senza però sapere cosa significhi davvero il copione. L’epistemia si manifesta proprio quando questa abilità formale viene interpretata come competenza reale. L’AI parla bene, quindi deve sapere. Peccato che le sue risposte possano essere incomplete, imprecise o persino sbagliate, pur mantenendo un tono sicuro e convincente.

A rendere il fenomeno ancora più interessante è il ruolo attivo degli esseri umani nel rafforzare questa illusione. Una ricerca pubblicata su arXiv dal titolo Human heuristics for AI-generated language are flawed, guidata da Walter Quattrociocchi, docente dell’Università La Sapienza di Roma, mostra quanto siamo poco attrezzati per distinguere tra testi scritti da persone e testi generati dall’intelligenza artificiale. La fluidità del linguaggio, una struttura logica apparentemente solida e un tono assertivo vengono letti come segnali di affidabilità e competenza.

In pratica, i nostri meccanismi cognitivi fanno il resto del lavoro. Da sempre associamo la buona forma espressiva alla verità dei contenuti. Se qualcosa è scritto bene, tendiamo a credergli di più. L’epistemia nasce qui, nell’incontro tra un’AI progettata per essere persuasiva e un essere umano incline a fidarsi del linguaggio ben confezionato. Per questo non è solo un problema tecnologico, ma un fenomeno sociale e culturale.

Il vero rischio non è l’errore occasionale, inevitabile in qualsiasi sistema complesso. È la normalizzazione dell’uso dell’AI come fonte di sapere non mediato. Quando una risposta appare completa e ben argomentata, molti utenti si fermano lì. Niente confronto con altre fonti, nessuna verifica, nessun dubbio. L’illusione di conoscenza diventa una scorciatoia cognitiva comoda, ma pericolosa, soprattutto in ambiti delicati come la salute, l’economia o la politica.

La ricerca di Quattrociocchi e di altri studiosi suggerisce due direzioni complementari. Da un lato, sviluppare sistemi più trasparenti, capaci di rendere evidente la natura probabilistica delle risposte generate dall’AI. Dall’altro, investire seriamente nell’educazione degli utenti, affinché imparino a riconoscere i limiti epistemici di questi strumenti. Non tutto ciò che è ben scritto è vero, e non tutto ciò che sembra sapere possiede davvero conoscenza.

In un’epoca in cui l’intelligenza artificiale parla sempre meglio, la sfida non è farla tacere, ma imparare ad ascoltarla con spirito critico. Perché l’epistemia non riguarda ciò che l’AI dice, ma ciò che noi siamo pronti a credere.