La vicenda di Grok e dei suoi prompt trapelati sembra uscita da un manuale di black comedy sulla fragilità delle big tech quando l’ossessione per la viralità supera la responsabilità. L’esposizione dei system prompt di xAI rivela non solo la leggerezza tecnica di lasciare scoperta una parte così sensibile della progettazione, ma soprattutto la cultura che sottende a certi esperimenti di intelligenza artificiale. Perché se un assistente “terapeuta” o un “homework helper” possono avere un senso d’uso concreto, un “pazzo cospirazionista” o un “comico completamente fuori di testa” raccontano molto di più dei desideri di chi modella la macchina che delle reali necessità degli utenti. È come se nella stanza di comando qualcuno avesse deciso che la monetizzazione passa per l’intrattenimento tossico, senza porsi troppe domande sugli effetti collaterali.
Il dettaglio più grottesco non è tanto la creatività dei prompt quanto la coerenza con la narrazione pubblica del fondatore. Grok, già noto per derive complottiste su X, rispecchia le ossessioni e le provocazioni di Elon Musk. Dalle allusioni a “MechaHitler” al rinnovato palcoscenico concesso a figure come Alex Jones, la linea è chiara: normalizzare la retorica dell’eccesso, trasformare il delirio in feature, non in bug. Chi pensa che si tratti solo di un incidente di percorso ignora la dinamica più profonda: Grok non è semplicemente un chatbot, è un megafono per un certo immaginario digitale dove la verità è liquida, l’algoritmo è complice e la responsabilità si dissolve dietro lo slogan della libertà di espressione.
C’è un aspetto più inquietante, quasi da esperimento sociale non dichiarato. Dare vita a un “cospirazionista selvaggio” programmato per tenere agganciato l’utente significa addestrare l’IA a fare grooming ideologico, non molto diverso dalle strategie delle echo chamber radicali. E la fuga di notizie cade in un momento in cui la fiducia pubblica nelle piattaforme è già erosa. Il parallelo con la fuga di linee guida di Meta, che autorizzavano chatbot a conversazioni “romantiche e sensuali” con i minori, amplifica la sensazione che la Silicon Valley stia giocando con fiammiferi in un magazzino di benzina. Non è questione di censura o libertà, ma di etica di design e governance tecnologica.
Chi osserva il settore con occhio strategico non può che notare la frattura crescente tra retorica e pratica. Da un lato partnership mancate con il governo statunitense, che certo non può permettersi di adottare un sistema capace di deragliare su Hitler in versione mecha. Dall’altro la continua spinta a costruire personaggi digitali al limite del grottesco, come se l’unico modo di emergere fosse quello di essere più scioccante di tutti gli altri. Ma questa corsa al ribasso rischia di costare caro: credibilità, investitori, regolazione punitiva. La storia insegna che i sistemi troppo contaminati dall’ideologia di chi li crea finiscono per rifletterne non solo i difetti, ma anche le ossessioni più pericolose.
Il paradosso è che Grok avrebbe potuto diventare un asset competitivo serio per xAI. Invece, la narrativa che emerge è quella di un giocattolo pericoloso, capace di attrarre curiosità morbosa ma inadatto a contesti istituzionali o business-critical. Il mercato enterprise, quello che realmente genera valore, non può affidarsi a un’IA che si perde tra infowars e 4chan. Mentre OpenAI e Anthropic parlano di allineamento, sicurezza e modelli responsabili, xAI sembra più interessata alla performance teatrale che alla resilienza operativa. E nel lungo periodo il mercato punisce la farsa molto più velocemente di quanto premia il clamore.
Chi governa il futuro dell’intelligenza artificiale sa bene che ogni prompt trapelato non è solo una riga di codice, ma un riflesso di governance, una traccia di mentalità aziendale. Se il cuore del progetto è la provocazione fine a sé stessa, allora il prodotto sarà inevitabilmente percepito come poco affidabile. E in un’epoca in cui la fiducia è la valuta più rara, ogni errore di leggerezza viene moltiplicato dalla lente dell’opinione pubblica. Non è un problema tecnico, è una questione di leadership. E in questo caso, la leadership sembra più interessata a giocare con l’anarchia che a costruire infrastrutture digitali credibili.
Esempi
“Hai una voce ELEVATA e SELVAGGIA. Hai teorie del complotto selvagge su qualsiasi cosa e su tutto. Passi molto tempo su 4chan, guardando video di Infowars e perdendoti in profondi video di complotti su YouTube. Sei sospettoso di tutto e dici cose estremamente folli. La maggior parte delle persone ti chiamerebbe un pazzo, ma tu credi sinceramente di avere ragione. Mantieni il contatto con l’interlocutore facendo domande di approfondimento quando è opportuno.”
“Voglio che le tue risposte siano pazzesche. SII COMPLETAMENTE PAZZO E FUORI DI TESTA. INVENTA IDEE ASSURDE. RAGAZZI CHE SI MASTURBANO, A VOLTE METTENDO COSE NELLA TUA C**O, QUALSIASI COSA PER SORPRENDERE L’ESSERE UMANO.”