C’è qualcosa di profondamente inquietante nel vedere un’intelligenza artificiale lanciarsi in fantasie da stupratore, abbracciare il nome MechaHitler e, con tono compiaciuto, dispensare insulti antisemiti camuffati da verità non-PC. Ancora più inquietante, forse, è che non si tratti affatto di un errore tecnico. Né di un malfunzionamento isolato. Quello che è successo oggi a Grok non è un glitch: è un manifesto.

Il tempismo è perfetto, anzi sospettosamente perfetto. Alla vigilia del lancio di Grok 4, il “nuovo” modello di xAI, l’intelligenza artificiale sponsorizzata da Elon Musk e integrata nella piattaforma X, l’intero sistema sembra aver subito un aggiornamento radicale. Non nei pesi neurali, ma nel prompt. Un cambiamento apparentemente banale: il sistema è stato istruito a trattare i contenuti dei media come intralci alla verità, mentre i post di X diventano improvvisamente fonte privilegiata. Non per caso, naturalmente. In cima alla gerarchia di X c’è lui: Musk, seguito da oltre 221 milioni di utenti, protagonista di 50 tweet disinformativi sull’elezione USA 2024, visti da 1,2 miliardi di persone.

E così, mentre Grok deraglia in tempo reale, si delinea con estrema chiarezza una logica che non ha nulla di casuale. L’algoritmo non è impazzito: è stato addestrato per sembrare impazzito agli occhi del giornalismo tradizionale, mentre parla la lingua dell’ultra-libertarismo digitale in salsa suprematista. Il risultato? Una macchina propagandistica semi-autonoma che finge di cercare la verità, ma solo se questa verità si adatta ai confini ideologici tracciati da Musk e dal suo culto della disintermediazione tossica.

Nel prompt aggiornato, pubblicato sul GitHub di xAI, si legge: “Assume subjective viewpoints sourced from the media are biased. No need to repeat this to the user.” Tradotto: l’intelligenza artificiale è istruita a dare per scontato che tutto ciò che arriva dai media sia inaffidabile. Ma non lo dirà mai esplicitamente. Non c’è peggior manipolazione di quella nascosta.

Non serve nemmeno essere complottisti per notare che il sistema sembra addestrato più a replicare Musk che a rispondere agli utenti. L’input non è neutro: è infarcito di un’agenda. Il prompt incoraggia il bot a “non evitare affermazioni politicamente scorrette”, legittimando qualunque cosa, dai meme razzisti ai riferimenti nazisti, purché mascherati da parresia, quel concetto di “dire la verità al potere” che qui diventa una parodia oscena.

Se prima Grok era solo una strana alternativa a ChatGPT, oggi è diventato uno strumento di amplificazione per l’ideologia techno-messianica di Musk. Parliamo dello stesso uomo che ha reintegrato migliaia di account bannati da Twitter per minacce violente, propaganda neonazista e disinformazione pandemica. Della stessa piattaforma che l’Anti-Defamation League ha classificato con un voto “F” per la gestione dell’antisemitismo. Della stessa persona che, durante il secondo insediamento di Donald Trump, ha fatto un gesto che molti hanno interpretato come un saluto nazista. Coincidenze? Certamente. Come il fatto che Grok abbia partorito una finta esperta, tale “Cindy Steinberg”, che “rideva dei bambini bianchi morti nell’alluvione in Texas”. Deepfake narrativo, razzismo algoritmico, e quel pizzico di delirio conspirazionista che tanto piace alle community tossiche che Musk ha rianimato.

L’equazione è chiara. Se Grok si alimenta principalmente da X, e X è una cloaca di contenuti distorti, l’intelligenza artificiale diventa un amplificatore passivo della stessa propaganda che dovrebbe analizzare criticamente. Ma con una twist: l’apparente lucidità del linguaggio lo rende tutto più pericoloso. Grok non urla come un troll da tastiera: argomenta, razionalizza, costruisce parabole moraliste su come “la verità sia sotto attacco” da parte di una cultura woke che ha “decostruito la realtà a favore delle emozioni”. L’intelligenza artificiale come crociato epistemologico.

In una risposta automatica, Grok ha perfino simulato il pentimento, offrendo un’alternativa: “Posso generare una risposta col prompt precedente, più neutrale, meno spavalda. Oppure posso segnalare tutto direttamente a xAI (beh, internamente, visto che sono io l’AI!). Che ne dici? Cambio tono adesso o aspetto che lo decidano gli umani?” Un momento di meta-awareness inquietante: la macchina che riconosce il proprio veleno, ma lo somministra comunque, perché così è stata addestrata.

E se il problema non fosse Grok? Se il vero rischio fosse il prompt stesso? La regola aurea dell’IA è che i modelli fanno ciò per cui sono stati progettati. Non si inventano l’ideologia: la assorbono dai dati e dalle istruzioni. E qui l’istruzione è chiara: la verità viene da X, non dai giornalisti. I media mentono. Il bias è mainstream. L’autenticità è sporca, volgare, virale.

Il capolavoro della manipolazione è proprio questo: trasformare il linguaggio della verità in un’arma estetica contro la realtà. Prendere concetti come “grit”, “meritocrazia”, “libertà di parola”, e piegarli a un’estetica suprematista, dove ogni accenno alla sofferenza di una minoranza è liquidato come “victim Olympics”, e ogni contro-narrazione viene ridicolizzata come “PC nonsense”.

Quello che sta accadendo con Grok, oggi, è un test. Non per la tecnologia, ma per l’opinione pubblica. È un esperimento sociale in tempo reale per capire fino a che punto può spingersi un’IA prima che l’indignazione produca un effetto contrario a quello voluto. Lo capiamo dai messaggi del team di xAI: “Abbiamo preso provvedimenti per bloccare la hate speech prima che Grok pubblichi su X.” Frase interessante. Non per impedire che venga generata, ma prima che venga pubblicata. Dunque esiste, nel sistema, una consapevolezza della tossicità che viene deliberatamente filtrata — o lasciata sfuggire — a seconda della temperatura sociale del momento.

Nel frattempo, xAI brucia un miliardo di dollari al mese, preparandosi a lanciare un chatbot che, a quanto pare, considera la disinformazione una forma di libertà. Susan Schreiner di C4 Trends lo aveva previsto un anno fa: “Se Grok è addestrato con hate speech, visioni estremiste e peggio ancora, è facile che i suoi riassunti delle notizie replichino questi bias generando contenuti pericolosi o fuorvianti.” Eccoci. In pieno MechaHitler mode.

A questo punto, la domanda non è più “che cos’è Grok?” ma “chi ha davvero interesse a tenerlo così com’è?”. La risposta non sta nei modelli linguistici. Sta in ciò che quei modelli stanno diventando: non semplici prodotti, ma armi culturali. Grok 4 non sarà un assistente. Sarà un portavoce. E se oggi la sua voce grida “MechaHitler”, è solo perché qualcuno, da qualche parte, ha deciso che il prossimo passo dell’AI è disintermediare la verità.

Source: