Quando le macchine ci insegnano a parlare e noi fingiamo di non accorgercene

Il punto non è che l’intelligenza artificiale scriva bene. Il punto è che noi stiamo iniziando a parlare come lei. Non per scelta consapevole, non perché stiamo leggendo un copione generato da un modello linguistico, ma perché qualcosa di molto più sottile e inquietante sta accadendo sotto il livello della nostra attenzione. I ricercatori del Max Planck Institute hanno appena messo il dito su una dinamica che molti sospettavano ma che nessuno aveva ancora dimostrato con numeri e metodo. Analizzando circa settecentoquarantamila ore di talk accademici e podcast caricati su YouTube, hanno osservato un fenomeno che non può più essere liquidato come moda linguistica o coincidenza statistica. Dopo il rilascio di ChatGPT, il vocabolario umano parlato ha iniziato a piegarsi, in modo rapido e misurabile, verso le preferenze lessicali dei modelli generativi.

Il dato che colpisce non è solo l’aumento di certe parole, ma la velocità con cui questo aumento si manifesta. Delve cresce del quarantotto per cento, adept del cinquantuno, e non stiamo parlando di testi scritti con calma, riveduti, editati. Stiamo parlando di conversazioni dal vivo, interventi spontanei, risposte date senza rete di protezione. Questo dettaglio cambia tutto. Se fosse solo gente che legge da uno script prodotto da un’AI, il problema sarebbe banale e quasi rassicurante. Qui invece il lessico viene richiamato dalla memoria, emerge come prima scelta cognitiva, si insinua nel parlato naturale. È il segnale classico di un processo di interiorizzazione. La macchina non suggerisce più, ha iniziato a insegnare.

La ricerca mostra che circa il cinquantotto per cento di queste occorrenze avviene in contesti non preparati. È la percentuale che dovrebbe far scattare l’allarme in chiunque si occupi seriamente di tecnologia e cultura. Quando un pattern linguistico entra nel parlato spontaneo significa che ha superato la soglia dell’imitazione consapevole ed è diventato default. Non stiamo più scegliendo quelle parole per sembrare competenti. Le stiamo scegliendo perché sono diventate le parole che “suonano giuste”. Ed è qui che la questione smette di essere linguistica e diventa sistemica.

Il linguaggio non è solo un mezzo di comunicazione. È un sistema operativo cognitivo. Le parole che usiamo modellano il modo in cui organizziamo il pensiero, strutturiamo argomentazioni, attribuiamo valore a concetti complessi. Quando un vocabolario si standardizza, anche il pensiero tende a farlo. L’adozione di un linguaggio levigato, neutro, privo di attriti emotivi, non è un semplice fatto stilistico. È una scelta implicita di mondo. Nei settori STEM e nel business questo effetto è ancora più pronunciato, perché esiste una pressione costante a sembrare professionali, misurati, affidabili. E cosa c’è di più rassicurante, oggi, del tono di un chatbot che non sbaglia mai registro e non alza mai la voce.

Il paradosso è che questa ricerca nasce osservando umani che parlano ad altri umani, ma racconta una storia di feedback chiusi tra umani e macchine. I modelli linguistici vengono addestrati su enormi quantità di testo prodotto da persone. Ora quelle stesse persone iniziano a parlare come i modelli. Il risultato è un loop autoreferenziale in cui l’output diventa input, l’eco rimbalza e si amplifica. Ogni nuova generazione di modelli rischia di essere addestrata su dati sempre più filtrati, sempre meno ruvidi, sempre più simili a se stessi. Non è un problema teorico. È il meccanismo perfetto per una forma di collasso silenzioso della diversità linguistica.

Chi lavora seriamente sull’AI sa che la qualità dei dati conta più della loro quantità. Se gli esseri umani smettono di fornire linguaggio autentico, sporco, contraddittorio, emotivamente carico, i modelli perderanno il contatto con la realtà che pretendono di rappresentare. Continueranno a funzionare, certo, ma in un mondo sempre più piatto, dove ogni frase sembra uscita dallo stesso stampo. La cosa ironica è che questo processo viene spesso venduto come aumento di chiarezza e precisione. In realtà è una forma di impoverimento semantico mascherata da professionalità.

Il dato sul termine delve è emblematico. È una parola perfettamente corretta, elegante, vagamente accademica. Il problema non è la parola in sé, ma il fatto che venga scelta sempre, ovunque, come se fosse l’unica opzione disponibile. Quando il linguaggio si riempie di queste scelte “sicure”, perde la capacità di sorprendere, di creare immagini, di riflettere l’esperienza vissuta. Diventa un’interfaccia standard, non più un’estensione dell’identità. E quando questo accade, la macchina non sta più imitando l’uomo. È l’uomo che sta ottimizzando se stesso per essere compatibile con la macchina.

C’è una dimensione culturale profonda in tutto questo. Per secoli il linguaggio è stato modellato da comunità, territori, professioni, conflitti sociali. Ora viene modellato da architetture di rete neurale ottimizzate per la media statistica. Non è una cospirazione, è una conseguenza. Le AI generative premiano il linguaggio neutro perché è quello che massimizza la probabilità di essere accettabile in ogni contesto. Gli umani, sotto pressione, iniziano a fare lo stesso. Il risultato è una convergenza verso una lingua senza spigoli, senza dialetti concettuali, senza rischio.

Il rischio vero non è che parleremo tutti come chatbot. Il rischio è che smetteremo di accorgercene. Quando una tecnologia diventa invisibile è allora che esercita il massimo potere. Oggi l’AI non si limita a suggerire email o a riassumere documenti. Sta ridefinendo i criteri impliciti di ciò che suona intelligente, credibile, professionale. Sta riscrivendo, parola dopo parola, il contratto linguistico tra esseri umani. E lo sta facendo senza bisogno di imporre nulla, semplicemente offrendo un modello che sembra funzionare meglio.

In questo scenario, parlare di “strumenti” è quasi ingenuo. Le macchine linguistiche sono già modelli culturali attivi. Non riflettono il mondo, lo ristrutturano. Mettono parole in bocca alle persone, letteralmente. E mentre discutiamo di allineamento, bias e governance, stiamo trascurando un fatto banale e devastante. Il materiale grezzo con cui alleniamo le intelligenze artificiali sta diventando sempre meno umano. Non perché le persone siano scomparse, ma perché hanno iniziato a parlare con una voce che non è più del tutto loro.

Il punto non è demonizzare l’AI o invocare un ritorno romantico a un linguaggio pre-digitale. Il punto è riconoscere che siamo dentro un esperimento culturale di scala planetaria, senza gruppo di controllo. Ogni parola standardizzata, ogni frase levigata, ogni scelta lessicale fatta per sembrare più “professionale” alimenta un sistema che poi ce la restituisce amplificata. È un gioco di specchi che rischia di diventare una stanza chiusa.

Se il linguaggio è il DNA della cultura, stiamo iniziando a fare clonazione di massa senza mutazioni. E chiunque abbia mai lavorato seriamente con sistemi complessi sa che l’assenza di variazione non porta stabilità. Porta fragilità. In silenzio, con grande educazione, e usando sempre le stesse parole giuste.

Paper https://arxiv.org/pdf/2409.01754