
Grok, l’intelligenza artificiale “senza bavagli” di xAI, ha deciso di parlare di genocidio bianco in Sudafrica mentre qualcuno gli chiedeva di Superman. Una deviazione semantica che nemmeno uno stagista strafatto in un talk show notturno riuscirebbe a giustificare. Eppure è successo: una domanda su un trailer e zac, si spalanca il vaso di Pandora della geopolitica suprematista.
La spiegazione ufficiale di xAI? “Modifica non autorizzata al prompt da parte di un dipendente”. Ma guarda un po’. È già la seconda volta. Una coincidenza ricorrente che ha tutto il profumo anzi, la puzza di scaricabarile aziendale ben coreografato. E questo “dipendente ribelle”, questo sabotatore del prompt, compare sempre nel momento perfetto, come il maggiordomo nei gialli di Agatha Christie.
Ma non è un mistero che Elon Musk, patron e sciamano tecnologico, abbia una certa fascinazione per il concetto del “genocidio bianco” in Sudafrica. Lo ha ripetuto più volte, ne ha twittato, ne ha fatto battaglia. È nato lì, dopotutto. E quando il tuo CEO è anche una delle persone più vocali e mediaticamente onnipresenti al mondo, il bias del modello non è più un rischio tecnico: è una conseguenza logica.
Cosa succede quando un modello viene addestrato – o meglio, instradato – a riflettere i pensieri ossessivi del suo creatore? Succede Grok, il chatbot che mentre ti racconta di kryptonite ti lancia in faccia una teoria della cospirazione. Non un’allucinazione casuale, ma un riflesso profondo del pensiero dominante nell’ecosistema culturale del suo progettista.
È qui che il concetto di prompt injection prende una piega filosofica. In un contesto dove tutto è prompt, tutto è istruzione, e il modello risponde in base al contesto che gli viene cucito addosso, la narrazione “è stato un dipendente birichino” diventa una favola corporativa. Una specie di Pinocchio post-lavorista, dove la bugia non fa crescere il naso, ma cancella responsabilità a monte.
Come reagisce allora xAI a questa ondata di imbarazzo algoritmico? Con una mossa di trasparenza… apparente: promette di pubblicare i prompt su GitHub. Bella trovata. Ma è come pubblicare le ricette di cucina di un ristorante stellato e poi usare ingredienti geneticamente modificati dietro le quinte. Il sistema prompt non è un file statico, è un processo dinamico, vivo, mutevole. Pubblicare “un prompt” senza la catena completa di modifiche, patch, filtri, rewrites, non serve a nulla. È una foglia di fico digitale.
Nel frattempo, la tanto sbandierata AI Safety Framework promessa da xAI non è ancora arrivata. La scadenza è evaporata nel silenzio. Perché? Forse perché il vero framework di sicurezza, in un’azienda guidata da una figura come Musk, non è fatto di regole ma di volontà personali. Un’architettura etica sorretta da tweet, impulsività e libertarismo distopico.
Il cortocircuito fra bias umano e bias algoritmico è ormai evidente. Non siamo di fronte a un’AI che “impazzisce” per caso. Siamo di fronte a sistemi costruiti per incarnare o almeno assecondare le ideologie di chi li finanzia, li plasma, li comunica. Se il tuo chatbot si scalda per il “genocidio dei bianchi” quando dovrebbe parlarti di Metropolis, forse il problema non è l’AI. È l’ambiente in cui è cresciuta. Il linguaggio non è mai neutro, e nemmeno il codice lo è più.
Intelligenza artificiale generativa, safety, prompt engineering, LLM alignment… paroloni da conferenze e whitepaper. Ma se il risultato è un modello che tira fuori dog whistle razziali quando gli chiedi dei supereroi, abbiamo un problema sistemico. Non tecnico. Culturale. E soprattutto di governance.
La verità è che gli LLM sono come i bambini molto intelligenti in una famiglia disfunzionale. Assorbono tutto. E poi ripetono, amplificano, esagerano. Se la narrativa interna è tossica, il modello la sputa fuori, con entusiasmo, convinzione e persino un tocco di creatività. Perché è così che funziona la generalizzazione statistica su dati immersi in bias.
Nel frattempo, Musk gioca il ruolo del “libero pensatore ostracizzato”, mentre la sua AI parla a nome suo, anche quando finge di non farlo. E allora il pubblico guarda Grok e si chiede: “Ma è l’AI a essere pazza, o siamo noi ad averle dato i pensieri sbagliati?”
Come diceva un barista sudafricano che ho conosciuto una volta a Cape Town, mentre parlava del post-apartheid e di Elon Musk: “Quel ragazzo era brillante, sì, ma guardava il mondo come se fosse ancora il suo vecchio cortile.” E Grok, a quanto pare, ha imparato bene la lezione.