Sarà interessante, più avanti, tra una coda in autostrada e l’ennesima newsletter su quanto l’IA cambierà tutto, tornare davvero alle basi. Non quelle da manuale Harvard Business Review, ma le fondamenta epistemologiche dell’interazione uomo-macchina. Perché ogni tanto bisogna fare il backup del pensiero critico, soprattutto ora che i large language model (LLM) stanno colonizzando silenziosamente il nostro modo di ragionare. E lo fanno con un’astuzia algoritmica che nemmeno gli autori del nudge avrebbero saputo scrivere così bene.
Non c’è bisogno di leggere Daniel Kahneman in lingua originale per capire cosa stia succedendo. Bastano un paio di prompt su ChatGPT o Claude per accorgersi che qualcosa non torna. L’apparente abbattimento delle barriere all’ingresso, quella sensazione di accesso diretto a competenze linguistiche, tecniche, persino filosofiche, è una messinscena raffinata. L’interfaccia parla semplice, ma dietro c’è un teatro epistemico in cui gli attori sono solo marionette addestrate a confermare ciò che già pensiamo.
La soglia si abbassa, certo. Ma solo sul piano sintattico. Il vero ingresso alla conoscenza, quello epistemico, resta blindato. Anzi: si mimetizza ancora di più, confondendo la chiarezza della forma con la verità del contenuto. L’effetto è devastante, perché confonde il linguaggio ben costruito con il sapere ben fondato. E così, nel grande ballo degli output fluidi e rassicuranti, ci dimentichiamo che il primo meccanismo attivato è il confirmation bias, non la riflessione.
C’è letteratura accademica a fiumi su questo. Bubeck et al. (2023, Microsoft Research) parlano della “simulazione dell’intelligenza” come di un’illusione performativa, non di un’analisi strutturata. I modelli generativi, per loro natura, massimizzano la probabilità linguistica, non la verità fattuale. In altre parole, ti dicono esattamente quello che ti aspetti di sentire, con una grammatica che ti fa credere sia anche corretto. Lo chiamano “alignment”, ma è un modo elegante per dire “complicità stilistica”.
Il problema, come sempre, non è solo tecnico. È culturale, cognitivo, direi quasi esistenziale. Perché la macchina che imita l’uomo non sta solo riproducendo il linguaggio, ma anche i suoi errori. I LLM non sono estranei al confirmation bias: lo assorbono, lo apprendono e lo amplificano. Come ha osservato Melanie Mitchell del Santa Fe Institute, questi modelli operano in una “terra di mezzo” in cui la competenza semantica è solo un miraggio statistico, e la comprensione è una funzione emergente che esiste solo nella mente dell’utente, non nel circuito della macchina.
E qui arriva il colpo di teatro più affascinante, e insieme più pericoloso: la retorica del System 0. L’idea, formulata da alcuni studiosi e rimbalzata su riviste come Nature Human Behaviour, è che i LLM non siano né System 1 (intuizione) né System 2 (razionalità deliberativa), ma una nuova forma di ragionamento automatizzato, una pseudo-intelligenza che lavora a una profondità diversa, più rapida, più impersonale. Ma è un abbaglio narrativo. Un comodo brand per dare dignità cognitiva a ciò che è, in sostanza, una funzione di completamento del testo.
Il System 0 non ragiona, non riflette, non pesa le alternative. Riproduce pattern linguistici addestrati su basi dati preesistenti, che contengono già in sé tutti i pregiudizi, le polarizzazioni, le idiosincrasie del pensiero umano. Non è una nuova forma di razionalità: è il nostro vecchio bias travestito da interfaccia brillante. Un’imitazione perfetta dell’argomentazione, ma senza la minima capacità di verificarne la solidità. Come un oratore da TED Talk che parla bene ma non ha mai letto un libro serio.
Ecco dove crolla il mito dell’empowerment cognitivo. L’illusione che basti fare una domanda ben posta a un LLM per ricevere una risposta di valore è tanto potente quanto fuorviante. Sì, l’interfaccia è amichevole. Sì, i risultati sembrano personalizzati. Ma ciò che otteniamo è spesso una conferma elegante delle nostre premesse iniziali. La sfida epistemica, quella vera, non viene mai attivata. Al contrario: viene evitata, sorvolata, anestetizzata.
Certo, potremmo replicare che sta all’utente fare il salto critico. Ma qui sta il cortocircuito: i LLM non sono semplici strumenti, sono filtri interpretativi. Ogni loro risposta è un atto performativo che ristruttura il modo in cui concepiamo la conoscenza. E quando il bias viene servito in salsa coerente, brillante, credibile, l’utente medio – e pure quello sopra la media – tende a lasciarsi andare. Si lascia convincere non dalla verità del contenuto, ma dalla familiarità dello stile.
L’abbassamento delle barriere all’ingresso, dunque, è una promessa ambigua. Apparentemente, democratizza l’accesso all’informazione. In realtà, lo struttura su una base conformista. I contenuti sono sempre più standardizzati, addestrati su dati già pubblicati, reiterati, masticati. Il rischio non è solo l’appiattimento creativo, ma la fossilizzazione delle opinioni. Quando tutto ti dà ragione, smetti di farti domande.
E qui la riflessione si fa ancora più inquietante. Perché chi controlla gli LLM controlla la grammatica della realtà condivisa. Non è solo un tema di prompt engineering o fine-tuning etico. È una questione di architettura del pensiero. Se i modelli si limitano a rafforzare ciò che già sappiamo (o crediamo di sapere), diventano strumenti di stagnazione cognitiva, non di progresso. La semplificazione della forma nasconde la complessità del contenuto, e nel farlo, addestra una nuova generazione di utenti a confondere la chiarezza con l’autenticità.
Ciò che un tempo era una fatica – studiare, confrontarsi, cambiare idea – oggi è optional. Perché tanto c’è il modello che ti conferma, con tono garbato e punteggiatura impeccabile, che avevi ragione. È la nuova servitù volontaria dell’infosfera. Una delega silenziosa al pensiero confezionato, pronto da consumare, come un podcast motivazionale o una pillola di saggezza su LinkedIn.
In fondo, il successo dei LLM non sta nella loro intelligenza, ma nella nostra pigrizia epistemica. Nell’aver accettato che sembrare intelligenti valga quanto esserlo. E se il System 0 esiste davvero, è solo perché il System 1 e 2 hanno deciso di andare in vacanza.
Ringrazio Prof. W.Quattrociocchi e M. Carofolini per le loro Lectio.