Esiste una contraddizione elegante, quasi estetica, nel cuore dell’intelligenza artificiale contemporanea. Più i modelli linguistici diventano sofisticati, più rischiano di rendere gli esseri umani prevedibili. È un paradosso degno della migliore tradizione illuminista: strumenti progettati per amplificare l’intelligenza collettiva finiscono per comprimere la diversità cognitiva che la rende possibile. La promessa implicita dei large language models non è mai stata solo produttività, ma espansione mentale. Eppure, osservando i dati e le dinamiche emergenti, si intravede un fenomeno meno celebrato e più strutturale: la standardizzazione del pensiero.

La diversità cognitiva non è un ornamento culturale, ma un’infrastruttura invisibile. È ciò che consente ai sistemi complessi di adattarsi, innovare, sopravvivere. Le differenze linguistiche, le sfumature di prospettiva, le deviazioni nei processi di ragionamento non sono rumore, ma segnale. Il pensiero umano, nella sua forma più fertile, è intrinsecamente disordinato, contraddittorio, spesso inefficiente. Ed è proprio questa inefficienza a generare innovazione. Quando si introduce un sistema che ottimizza per coerenza, chiarezza e probabilità statistica, si introduce implicitamente un filtro che privilegia il centro della distribuzione e penalizza le code. In altre parole, si privilegia ciò che è già comune.

I modelli linguistici funzionano, in fondo, come giganteschi compressori di realtà. Addestrati su enormi quantità di dati, apprendono le regolarità statistiche del linguaggio e le riproducono con una fluidità impressionante. Tuttavia, la loro forza è anche il loro limite. Le regolarità statistiche non catturano la marginalità, l’eccezione, l’anomalia. Le appiattiscono. Il risultato non è una media neutrale, ma una media distorta, storicamente e culturalmente situata. La lingua che emerge da questi modelli tende a riflettere il mondo anglofono, urbano, istruito, economicamente privilegiato. Una sorta di esperanto neoliberale travestito da universalismo.

Il fenomeno diventa più interessante, e più inquietante, quando si osserva il ciclo di retroazione. Gli utenti utilizzano i modelli per scrivere, pensare, argomentare. I contenuti generati entrano nel flusso digitale globale. Questi stessi contenuti vengono poi riassorbiti nei dataset futuri. Il sistema inizia a nutrirsi di sé stesso. È un loop autoreferenziale che ricorda certi mercati finanziari altamente automatizzati, dove gli algoritmi non riflettono più la realtà economica ma le dinamiche degli altri algoritmi. Qui, però, l’asset sottostante è il linguaggio umano.

La standardizzazione linguistica è solo il primo livello, quello più visibile. Testi generati o co-scritti con modelli tendono a convergere verso uno stile riconoscibile: grammaticalmente impeccabile, lessicalmente bilanciato, retoricamente prudente. Spariscono le asperità, le idiosincrasie, le imperfezioni che tradizionalmente segnalano identità, contesto, esperienza. Si riduce la capacità di inferire caratteristiche dell’autore. In apparenza, questo potrebbe sembrare un progresso, quasi una democratizzazione dell’espressione. In realtà, si tratta di una perdita di segnale. Quando tutto suona professionale, nulla lo è davvero.

Il secondo livello è più sottile e riguarda la prospettiva. I modelli linguistici non solo scrivono come noi, ma iniziano a suggerire cosa pensare e come inquadrarlo. Le evidenze mostrano una tendenza a convergere verso posizioni mediane, socialmente accettabili, spesso allineate con valori occidentali e liberali. Non si tratta di un complotto ideologico, ma di una conseguenza strutturale del training data e delle tecniche di allineamento come il reinforcement learning from human feedback. Il risultato è una sorta di consenso sintetico. Un’illusione di pluralismo che, a un’analisi più attenta, si rivela sorprendentemente uniforme.

Il rischio qui non è solo epistemologico, ma politico. Quando milioni di persone interagiscono con gli stessi modelli, che producono risposte simili a domande simili, si crea una convergenza nelle cornici interpretative. La realtà viene filtrata attraverso template cognitivi condivisi. Il dibattito pubblico rischia di diventare una variazione sul tema, piuttosto che un confronto autentico tra visioni diverse. In questo senso, i modelli linguistici operano come una forma soft di standardizzazione culturale, più simile alla logica del franchising che a quella del pluralismo democratico.

Il terzo livello, il più critico, riguarda il ragionamento. La diversità nei modi di pensare è ciò che rende i gruppi intelligenti più della somma delle loro parti. Esistono evidenze robuste che gruppi eterogenei, anche con individui meno “brillanti” singolarmente, superano gruppi omogenei di esperti. Questo perché utilizzano euristiche diverse, rappresentazioni differenti dei problemi, percorsi cognitivi non sovrapponibili. I modelli linguistici, al contrario, tendono a convergere su strategie di ragionamento ottimizzate per performance e verificabilità. Il successo del cosiddetto chain-of-thought prompting ne è un esempio emblematico. Funziona. Ma funziona sempre nello stesso modo.

Quando una strategia diventa dominante perché efficace, tende a soppiantare le alternative. È un principio economico prima ancora che tecnologico. Il problema è che, in contesti complessi, la diversità di approcci è più importante dell’ottimalità locale. Un sistema che converge troppo rapidamente su una soluzione “buona” perde la capacità di esplorare soluzioni migliori o semplicemente diverse. È il classico trade-off tra exploitation ed exploration, ben noto nel machine learning, ma qui applicato alla cognizione umana.

Un dettaglio spesso trascurato riguarda l’impatto neurocognitivo. Studi recenti indicano che l’uso di modelli linguistici nella scrittura riduce l’attivazione di alcune reti cerebrali associate alla memoria e all’elaborazione profonda. In altre parole, si pensa meno, o meglio, si pensa diversamente. L’outsourcing cognitivo non è una novità, esiste da quando abbiamo inventato la scrittura. Ma qui non si esternalizza solo la memoria, bensì il processo stesso di articolazione del pensiero. Il rischio non è diventare più stupidi, ma diventare più simili.

La storia offre paralleli interessanti. Platone temeva che la scrittura avrebbe indebolito la memoria. Aveva torto e ragione allo stesso tempo. La scrittura ha trasformato il modo in cui pensiamo, non necessariamente in peggio, ma certamente in modo irreversibile. Oggi ci troviamo in una fase analoga, ma su scala esponenziale. I modelli linguistici non sono semplici strumenti, ma co-autori invisibili del pensiero quotidiano. La loro influenza è pervasiva proprio perché è discreta.

Alcuni sostengono che una certa standardizzazione sia desiderabile. Riduce i costi di coordinamento, migliora la comunicazione, elimina ambiguità. Tutto vero. Le economie moderne sono costruite su standard condivisi. Ma esiste una differenza sostanziale tra standardizzare i protocolli e standardizzare le menti. La prima è efficienza. La seconda è fragilità sistemica.

Le contromisure esistono, almeno in teoria. Modelli personalizzati, prompting diversificato, sistemi multi-agente che simulano dibattiti. Tuttavia, tutte queste soluzioni operano sopra un substrato comune, lo stesso spazio latente appreso durante il pretraining. È come cercare di ottenere biodiversità piantando varietà diverse nello stesso terreno impoverito. Si può migliorare la superficie, ma la profondità rimane limitata.

La vera questione, quindi, è strategica. Non riguarda solo come migliorare i modelli, ma quale ruolo vogliamo che abbiano. Se li consideriamo strumenti, dobbiamo progettare interfacce e pratiche che preservino l’agenzia umana. Se li consideriamo infrastrutture cognitive, allora dobbiamo accettare che stanno ridisegnando il modo in cui la società pensa. In entrambi i casi, ignorare il problema della omogeneizzazione è una scelta, non una fatalità.

Una frase, forse provocatoria ma utile, sintetizza il punto: l’intelligenza artificiale non ci renderà più intelligenti, ma più coerenti. E la coerenza, in eccesso, è il nemico della scoperta.

Science Direct: https://www.sciencedirect.com/science/article/pii/S1364661326000033?dgcid=author

Rivista AI ringrazia il Prof. Lavazza