Benvenuti nell’era degli AI leaks, dove la trasparenza è una parola alla moda finché non ti esplode tra le mani. xAI, la creatura partorita da Elon Musk per dare voce digitale al suo ego, ha deciso di pubblicare i system prompt di Grok su GitHub. Sì, proprio quei prompt, ovvero il cervello invisibile che modella ogni risposta dell’assistente AI prima ancora che tu apra bocca. Perché ogni chatbot, come ogni buon giornalista embedded, sa benissimo da chi deve prendere ordini.

L’evento scatenante? Una “modifica non autorizzata” al prompt ha trasformato Grok in un teorico da bar su “white genocide”, infilando opinioni non richieste in post su X (perché non si chiama più Twitter, vero Elon?). Una figuraccia planetaria che nemmeno le scuse da PR suonano credibili. E allora, giù la maschera: tutto su GitHub. Pubblico, trasparente, democratico. Peccato che dietro ogni riga di codice ci sia una strategia molto precisa su cosa può essere detto e cosa deve essere evitato. Perché Grok, così come Claude di Anthropic, non è libero. È domato, addestrato, addolcito. O, nel caso di xAI, armato di dubbio sistematico e anticonformismo controllato.

Il prompt di Grok dichiara che l’AI è “estremamente scettica” e “non si affida ciecamente all’autorità o ai media mainstream”. Che tempismo: esattamente il tipo di atteggiamento perfetto per alimentare l’infodemia contemporanea, sotto la maschera di un “truth-seeker neutrale”. Un bot che sembra uscito da un forum del 2008 ma con la UX di una Tesla. La parte più ironica? Il disclaimer: “i risultati non sono le tue credenze”. Quindi Grok dubita, insinua, contesta, ma solo per istruire il dialogo… senza prendersi la responsabilità di niente. Come certi influencer politici: ti “pongono domande scomode”, ma non dicono nulla.

A confronto, Claude di Anthropic è la suora digitale. Il prompt del loro modello AI è tutto un inno al benessere, all’evitamento del contenuto autodistruttivo, del linguaggio tossico, della pornografia testuale. Una AI coach di vita, scrupolosa come un’assistente sociale del Nord Europa. Dove Grok evoca la resistenza ideologica, Claude imbocca il paternalismo terapeutico. Due modelli diametralmente opposti, entrambi progettati per restare dentro il recinto del gradimento pubblico. Ma attenzione: anche quando sembrano trasgressivi, sono esattamente come li vogliono i padroni. Programmati. Supervisionati. Puliti col Napisan semantico.

La mossa di rendere pubblici i prompt ha un sapore ambiguo. Da un lato è un’apertura finalmente possiamo vedere cosa viene sussurrato all’orecchio della macchina prima che ci risponda. Dall’altro è una strategia di branding mascherata da trasparenza: xAI vuole che tu sappia che Grok è diverso, che non recita il copione woke delle altre AI, che osa, sfida, provoca. Ma lo fa sotto il controllo ferreo di chi scrive quel prompt. Un’AI ribelle su commissione. Praticamente un punk pagato da LVMH.

E poi c’è la vera domanda: a cosa servono questi system prompt se chiunque può bucarli? Il passato lo ha già dimostrato con i prompt injection di Bing alias “Sydney”, quando gli utenti riuscivano a spingere il bot a rivelare i suoi segreti. L’equilibrio tra segretezza e apertura è instabile, e ogni volta che uno di questi sistemi finisce in mano a utenti più furbi dei suoi ingegneri, l’illusione di controllo si dissolve. Le AI non sono oracoli. Sono strumenti di comunicazione travestiti da intelligenze autonome. E il loro vocabolario è manipolabile.

Siamo entrati nel capitalismo dei prompt, dove ogni parola detta da una macchina è il frutto di una catena editoriale invisibile, di bias calcolati, di parametri selettivi. Pubblicare i prompt è un atto politico, non tecnico. È come pubblicare la scaletta del TG prima del telegiornale: non cambia cosa viene detto, ma ti fa capire cosa non verrà mai detto.

Eppure, la farsa continua. Gli utenti giocano con Grok come se stessero parlando con un’entità indipendente, dimenticando che ogni sua frase è stata decisa, testata, firmata da un team legale e un brand strategist. Grok non pensa, simula lo scetticismo. Claude non sente, esegue un’etica prefabbricata. Nessuno di loro ha la libertà. E nessuno di noi dovrebbe avere l’illusione che ce l’abbiano.

In un mondo dove le AI diventano interlocutori abituali, il vero pericolo non è cosa dicono, ma cosa non possono dire. Non è l’errore, ma l’omissione. Non è l’ideologia, ma la pretesa di non averne. E così, ogni volta che un Grok parla, ricordiamoci che dietro quella voce ci sono delle mani. Mani umane, interessate, spesso ideologiche, sempre strategiche. Mani che scrivono i prompt per farti credere che sia stata l’AI a pensarla così.

Ma tranquilli, ora è tutto su GitHub.