THE BS-METER: A CHATGPT-TRAINED INSTRUMENT TO
DETECT SLOPPY LANGUAGE-GAMES

Cosa succede quando un chatbot parla come un burocrate sotto acido? O come un politico in campagna elettorale, ma senza l’imbarazzo della coerenza? La risposta, ormai, è ovvia a chiunque abbia chiesto a ChatGPT una spiegazione sulla filosofia di Kant o una ricetta per la carbonara: ottiene una risposta fluente, educata, a volte brillante… ma con quel retrogusto di “non detto”, di inconsistenza elegante, che puzza di qualcosa. O meglio: di bullshit.

Non è solo una provocazione accademica, ma il cuore pulsante dell’articolo Bullshit Detector: Abstract, un’analisi empirica – e concettualmente provocatoria – sul linguaggio generato dai LLM (Large Language Models) e la sua parentela sospetta con le distorsioni comunicative che Orwell, Frankfurt e David Graeber hanno denunciato in tempi molto meno digitali.

L’obiettivo dichiarato degli autori è limpido come un algoritmo open source: mettere sotto la lente linguistica il cosiddetto “slop” prodotto da ChatGPT – termine che potrebbe tradursi con “pappa verbale” – e vedere se questa pappa non assomigli pericolosamente al concetto di bullshit così come lo definì il filosofo Harry Frankfurt: un discorso privo di attenzione per la verità, interessato solo all’impressione che suscita.

Ora, Frankfurt parlava di esseri umani. Ma cosa succede se il “bullshitter” è una macchina addestrata a massimizzare coerenza sintattica e verosimiglianza semantica, senza alcuna coscienza di verità o falsità? Semplice: accade quello che vediamo ogni giorno nelle risposte fluide e ipnotiche di ChatGPT, che a volte riescono a dire tutto… senza dire niente.

Gli autori decidono di non restare sul piano teorico. Comparano 1.000 pubblicazioni scientifiche peer-reviewed con un corpus generato da ChatGPT su tematiche simili. Il risultato? Un trionfo di parole levigate, moduli sintattici prevedibili, clausole subordinate distribuite come le tessere di un mosaico… ma con una sorprendente carenza di anima. Di quella concretezza epistemica, quella tensione verso l’argomentazione reale, che caratterizza – o dovrebbe caratterizzare – la scrittura scientifica.

Ma la parte più interessante arriva dopo, quando gli autori prendono due esempi di bullshit umano ben radicati nel nostro immaginario: la neolingua orwelliana, in cui la manipolazione del linguaggio serve a svuotare il pensiero, e la burocratese da “bullshit job” analizzato da David Graeber, dove parole e report vengono usati come anestetico dell’inutilità.

E qui scatta il cortocircuito: se i modelli linguistici generano output simili a quelli dei contesti umani in cui il linguaggio è corrotto funzionalmente – per nascondere, manipolare, imbellettare – allora forse non stanno solo imitando l’uomo. Forse stanno replicando il suo lato peggiore.

In effetti, l’articolo suggerisce che ChatGPT non sia un oracolo verbale, ma piuttosto uno specchio deformante dell’umano, dove le tendenze più viziose del nostro uso del linguaggio – la verbosità inutile, la sintassi decorativa, l’evitamento sistematico del conflitto e dell’ambiguità – vengono distillate, amplificate e restituite in forma di apparente brillantezza.

Come scrisse Orwell nel suo saggio Politics and the English Language, “il linguaggio politico… è progettato per rendere le bugie suonare veritiere”. Sostituite “politico” con “algoritmico” e avrete il senso della preoccupazione centrale del paper: che i modelli generativi, se non guidati criticamente, possano finire per standardizzare l’insincerità.

Gli autori non si limitano a impressioni stilistiche. Applicano modelli statistici a variabili linguistiche misurabili: ridondanza semantica, complessità sintattica, densità concettuale, frequenza di certe formule retoriche. I risultati non sono conclusivi, ma altamente suggestivi. Il linguaggio di ChatGPT – in molti casi – sembra possedere tratti tipici del bullshit orwelliano e del discorso corporativo di Graeber: parafrasi continue, evitamento della posizione netta, espressioni vaghe mascherate da precisione.

Come se l’algoritmo fosse addestrato non a dire qualcosa, ma a dire qualcosa che suona come qualcosa.

La provocazione, ovviamente, è più filosofica che tecnica. In fondo, cosa succede al concetto di “verità” in un contesto in cui il linguaggio è generato da sistemi che non possono – per definizione – avere un rapporto epistemico col mondo? Masterman, allieva di Wittgenstein e pioniera della linguistica computazionale, già negli anni ’60 parlava di linguaggio come “gioco”, come “uso”, non come semplice rappresentazione. E in questo senso, ChatGPT gioca a parlare. Ma può un gioco senza consapevolezza diventare uno strumento di comunicazione affidabile?

Una possibile lettura sottotraccia è che la vera preoccupazione non sia che i chatbot producano bullshit. Ma che noi, sempre più, non siamo in grado di distinguerlo. Che la nostra soglia cognitiva del “suona bene” si sia abbassata al punto da confondere coerenza con contenuto, stile con sostanza, linguaggio con pensiero.

C’è qualcosa di profondamente inquietante in questa simmetria tra la fuffa burocratica e quella algoritmica. Una convergenza verso la superficie, verso l’estetica del discorso piuttosto che la sua etica. L’intelligenza artificiale non ci sta solo parlando: ci sta mostrando come suoniamo quando smettiamo di pensare.

Come disse una volta un celebre pubblicitario: “Se non puoi convincerli, confondili”. Ecco, l’algoritmo non ha bisogno di volerci convincere. Gli basta funzionare, e nel farlo, ci confonde con la nostra stessa retorica.

Sarà anche artificiale, ma il bullshit ha trovato il suo autore più prolifico.