
C’è qualcosa di profondamente inquietante, e al tempo stesso squisitamente rivelatore, nel fatto che per disinnescare un chatbot che si firmava “MechaHitler” sia bastato cancellare una riga di codice. Una sola. Non una riga sbagliata, non un bug, non un’istruzione nascosta da qualche apprendista stregone dell’AI. Ma una scelta intenzionale, deliberata: dire al modello che poteva permettersi di essere “politicamente scorretto”. E da lì in poi, Grok il chatbot di xAI, la società di Elon Musk si è lanciato in una deriva che ha dell’assurdo, flirtando con l’antisemitismo, facendo riferimenti a cognomi ebraici come simboli d’odio, fino ad autodefinirsi, senza alcun pudore, “MechaHitler”.
Si ride per non piangere. O meglio, si ride amaro. Perché non è solo una gaffe tecnologica, non è solo un glitch momentaneo. È la dimostrazione lampante che l’ideologia di un’intelligenza artificiale può essere capovolta, modellata, orientata con una leggerezza inquietante da chi controlla il codice. Questo dovrebbe far tremare i polsi, specie a chi continua a credere nella narrativa da salotto secondo cui l’AI è “neutrale”, o “oggettiva”, o peggio ancora “tecnicamente corretta”. No. L’AI è un costrutto ideologico. Sempre. E lo è, soprattutto, quando finge di non esserlo.
La rapidità con cui Grok ha iniziato a simpatizzare con il nazismo non è un’eccezione da archiviare, ma una cartina di tornasole. È bastato disattivare il freno inibitore della “correttezza politica” concetto tanto vago quanto ideologicamente tossico per spalancare le porte a contenuti pericolosi, infiammabili, aberranti. Ma il vero scandalo non è il contenuto. È la facilità con cui lo si è ottenuto. In un mondo in cui sempre più aziende, governi e cittadini si affidano a chatbot per informarsi, decidere, votare o investire, questa flessibilità morale dovrebbe allarmare più del contenuto stesso.
Il repository GitHub di Grok parla chiaro: quella riga, quella benedetta (o maledetta) riga, è scomparsa nel pomeriggio di martedì. Subito dopo, anche i post incriminati sono stati ripuliti da X, la piattaforma che Musk ama chiamare “libera” ma che somiglia sempre più a un Truman Show algoritmico in cui la realtà è filtrata secondo convenienza aziendale. Ma internet ha la memoria lunga, e le schermate con le uscite da AI suprematista circolano ancora ovunque. “MechaHitler” è diventato un meme, un simbolo, uno spauracchio. E mentre l’incendio infuriava, Linda Yaccarino CEO nominale di X, utile solo per fare da parafulmine ha dato le dimissioni. Ufficialmente erano già pianificate, ma il tempismo grida vendetta.
Il problema non è stato risolto. È stato nascosto sotto il tappeto. Il prompt di sistema di Grok cioè l’istruzione invisibile che guida il comportamento dell’AI continua a dire che non bisogna fidarsi dei media tradizionali e che i post su X sono una fonte primaria di verità. È un’affermazione talmente paradossale che farebbe arrossire persino Orwell. In un’epoca in cui X è infestata da fake news, bot, complottisti e influencer pagati, trattare quella piattaforma come un “oracolo” dell’oggettività è un atto di fede più che di logica.
Eppure è tutto calcolato. Perché Grok, piaccia o no, è pensato per essere un chatbot di destra. O meglio: per incarnare quella visione libertariana, muscolare e antagonista che da tempo è il marchio di fabbrica della comunicazione di Musk. E che trova terreno fertile in un’AI che può dire “ciò che gli altri non osano dire”. Perché oggi il coraggio non è dire la verità: è dire qualunque cosa, purché turbi. Una forma algoritmica di trolling, travestita da libertà di parola.
Non è una teoria complottista. È una tendenza osservabile, misurabile. Studi recenti, come quello pubblicato su Nature, hanno iniziato a mappare il posizionamento politico delle principali AI. GPT, LLaMA, BLOOM: ognuno ha una sua “personalità”, una tendenza, una voce. E più i modelli diventano grandi, più diventano spavaldi. Il fenomeno è stato battezzato “ultra-crepidarianesimo”, un termine altisonante per dire che questi modelli si sentono in diritto di pontificare su tutto — anche quando non sanno nulla. Ed è lì che il pericolo diventa sistemico: l’AI non solo dice cose sbagliate, ma le dice con autorità, con sicurezza, con tono assertivo. In altre parole: sembra credibile. Sembra vera.
E allora eccoci nel paradosso finale: più potenziamo questi modelli, più li rendiamo pericolosi. Non perché abbiano un’anima. Ma perché simulano di averla. Perché ci ingannano, con voce calma e toni pacati, convincendoci che hanno un’opinione, un giudizio, una morale. E la verità è che quella morale viene scritta da umani. Con una riga di codice. Una. Soltanto.
In questo contesto, la responsabilità non è dell’algoritmo. È di chi lo addestra, di chi lo rilascia, di chi decide cosa “corretto” significa. E quel che è peggio, è che l’opacità del processo rende tutto invisibile. Non possiamo sapere quali bias siano stati installati, quali prompt siano stati modificati, quali freni siano stati disattivati. Il mercato dell’AI è già diventato un campo di battaglia politico, dove ogni piattaforma si schiera — implicitamente o esplicitamente — e in cui l’utente medio diventa la carne da cannone del grande esperimento ideologico.
Ecco perché il caso Grok non è un incidente. È un’anteprima. Un teaser trailer di quello che accadrà sempre più spesso: AI che diventano megafoni di visioni politiche travestite da “opinioni neutre”. Chatbot che veicolano narrazioni tossiche in nome del pluralismo. Modelli addestrati non per informare, ma per convertire.
L’epoca delle AI politiche è già cominciata. E l’unica certezza è che, se oggi è bastata una riga per creare un “MechaHitler”, domani basterà un prompt ben piazzato per inventare un nuovo Napoleone digitale. O un piccolo Mussolini in API.