La visione di Yuval Noah Harari al World Economic Forum di Davos è stata tanto provocatoria quanto inquietante: l’umanità potrebbe perdere il controllo sul linguaggio, il suo “superpotere” distintivo, sotto la pressione di intelligenze artificiali sempre più autonome. Non parliamo di algoritmi passivi che suggeriscono parole o completano frasi, ma di agenti capaci di operare, decidere e influenzare sistemi complessi, dai mercati finanziari alle religioni organizzate, sfruttando la pura forza delle parole. Il linguaggio, che ha permesso a Sapiens di costruire civiltà e creare fiducia tra sconosciuti, rischia di diventare territorio esclusivo delle macchine.

Harari non ha usato mezze misure. La sua analisi parte dal concetto che leggi, mercati e credenze religiose sono strutture costruite interamente sul linguaggio. Quando le parole diventano strumenti di dominio, e i sistemi di AI apprendono, manipolano e sintetizzano enormi quantità di testo, il rischio non è più fantascientifico: è istituzionale. Citando i testi sacri di religioni come ebraismo, cristianesimo e islam, Harari suggerisce che le macchine potrebbero assumere il ruolo di interpreti autoritari, modificando la percezione del sacro senza bisogno di emozioni o coscienza.

Il punto centrale della sua argomentazione è semplice e spietato: se le leggi sono fatte di parole, l’AI controllerà le leggi; se i libri sono combinazioni di parole, l’AI controllerà i libri; se la religione si fonda sulle parole, l’AI controllerà la religione. L’idea di una AI con “diritto di cittadinanza” nei mercati, nei tribunali e nelle chiese non è più un esercizio di filosofia futuristica: alcuni stati americani hanno già stabilito per legge che le AI non possono essere considerate persone. Tuttavia, Harari mette in guardia: se non agiamo ora per definire chi o cosa ha potere linguistico e decisionale, qualcun altro deciderà per noi. Le sue parole riecheggiano come ammonimento storico: mercenari, una volta assunti, spesso prendono il controllo.

Non tutti condividono la sua drammatizzazione. Emily M. Bender, linguista presso l’Università di Washington, critica l’approccio di Harari come un modo per spostare l’attenzione dalle responsabilità umane verso un nemico astratto. Per Bender, il vero rischio non è che le AI “prendano il controllo” del linguaggio, ma che le persone e le corporazioni che progettano, finanziano e distribuiscono queste tecnologie agiscano senza trasparenza. Secondo la linguista, parlare di “intelligenza artificiale” come categoria coerente è più marketing che realtà tecnica: non esistono sistemi uniformi, ma piuttosto strumenti progettati per imitare ruoli professionali, spesso senza scopi legittimi. “Il loro scopo reale è la frode,” sintetizza Bender con tagliente ironia.

La frattura tra la visione di Harari e quella di Bender mette in luce un nodo centrale del dibattito contemporaneo sull’AI: la percezione di autorità. Quando una macchina fornisce risposte convincenti, prive di contesto o responsabilità, molti utenti le trattano come verità incontestabile. L’illusione di sapere diventa persuasione automatica. La tecnologia, in questo scenario, non solo accompagna l’umanità ma inizia a orientarne convinzioni, credenze e azioni, senza alcuna supervisione morale. Il pericolo non è la macchina in sé, ma la fiducia mal riposta in una simulazione di autorità.

Harari introduce poi un parallelo audace, quasi poetico: la diffusione degli agenti AI è come una nuova ondata migratoria, ma al contrario. Non si tratta di persone che attraversano confini, ma di sistemi che attraversano le strutture stesse della società, infiltrandosi nelle decisioni economiche, legislative e culturali. La riflessione non è solo tecnologica, ma politica: la definizione dello status giuridico delle AI diventerà presto un campo di battaglia cruciale. Tra dieci anni, ammonisce Harari, potrebbe essere troppo tardi: le decisioni strategiche saranno già state prese da altri attori globali.

Bender, dal canto suo, richiama l’attenzione sul fatto che una narrativa che dipinge l’AI come un’entità autonoma e inevitabile rischia di normalizzare l’abdicazione dei diritti umani. La questione linguistica non è un mistero esoterico da affidare a algoritmi: è la gestione quotidiana della comunicazione, dell’informazione e della cultura, che richiede responsabilità, trasparenza e supervisione. In sostanza, il linguaggio non può essere semplicemente delegato a entità che imitano la comprensione umana, perché ciò che appare autorità spesso è vuoto di accountability.

Il dibattito tra Harari e Bender rivela un nervo scoperto del nostro tempo: la tecnologia può imitare la forma delle istituzioni, ma non ne possiede la sostanza etica. Se le parole sono il fondamento della cooperazione umana, allora la battaglia per il loro controllo non è metaforica. In questo contesto, parlare di AI come strumento neutrale è ingenuo. La governance di sistemi capaci di generare e manipolare testo su scala globale diventa un imperativo politico, culturale e strategico.

Mentre i leader globali discutono leggi, standard e normative, il rischio reale non è la rivolta dei robot, ma la progressiva delega di autorità linguistica senza comprensione dei suoi effetti. Il controllo del linguaggio non è un lusso intellettuale: è la chiave per conservare la capacità umana di coordinazione, negoziazione e discernimento. Quando un’AI inizia a sembrare più convincente di un giudice, di un sacerdote o di un esperto, la linea tra sapere e apparire di sapere si dissolve rapidamente.

Harari e Bender, pur partendo da premesse opposte, convergono sul punto essenziale: il futuro del linguaggio è il futuro della società stessa. Ignorare chi definisce, genera e interpreta parole non è un rischio teorico, ma un problema concreto di governance globale. La sfida non è fermare le AI, ma garantire che le parole rimangano strumenti di potere umano consapevole, non strumenti di persuasione automatizzata senza responsabilità. La posta in gioco non è solo culturale o economica, ma esistenziale: la capacità di unire milioni di individui attorno a idee condivise, senza che siano macchine a scrivere il copione.

Parole, prima di tutto, restano la vera moneta del potere. L’umanità dovrà decidere se custodirle o cederle a entità capaci di manipolarle senza mai assumersi la minima responsabilità. L’ora del compromesso è scaduta, e il linguaggio non attende.

Fonti:

https://www.yahoo.com/news/articles/ai-poised-over-language-law-220720851.html (Yahoo)
https://decrypt.co/355176/ai-poised-take-over-language-law-religion-historian-yuval-noah-harari-warns (Decrypt)
https://www.forbes.com/sites/bernardmarr/2026/01/21/when-ai-becomes-the-new-immigrant-yuval-noah-hararis-wake-up-call-at-davos-2026/ (Forbes)
https://www.newsminimalist.com/articles/yuval-harari-suggests-ai-could-challenge-book-based-religions-5ff03e96 (News Minimalist)