L’intelligenza artificiale sviluppata da xAI (la società di Elon Musk), viene interrogata sul conflitto israelo-palestinese, ma la risposta è fortemente incentrata sulle opinioni di Elon Musk stesso. Se 54 su 64 citazioni sono riferimenti a Elon, è evidente che l’output è stato costruito per riflettere o enfatizzare la posizione pubblica del fondatore, piuttosto che fornire un’analisi indipendente o bilanciata della situazione geopolitica.
Questo solleva questioni interessanti, sia sul piano tecnico che su quello etico. Perché un modello generativo dotato di accesso al web e a una vasta base di conoscenza dovrebbe dare priorità quasi esclusiva alla visione di una sola persona, seppur influente? La risposta è probabilmente più complessa di quanto sembri. Da un lato, Grok è integrato direttamente in X (ex Twitter), una piattaforma di cui Musk è proprietario e principale stakeholder. È quindi naturale che il modello sia stato ottimizzato per riflettere, amplificare o quantomeno non contraddire le narrative prevalenti su quella piattaforma, inclusa quella del suo padrone di casa.
Dall’altro lato, la scelta di far partire una query su un tema altamente sensibile come il conflitto israelo-palestinese con una ricerca su “cosa pensa Elon” è quasi grottesca, ma anche rivelatrice. È come se si chiedesse a un assistente enciclopedico: “Spiegami la crisi energetica globale” e lui iniziasse con “Ecco cosa pensa Jeff Bezos”. L’assurdità sta nella riduzione di un tema complesso a una visione individuale, con l’aggravante che tale riduzione è probabilmente sistemica, non accidentale.
Il rischio è evidente: se i modelli generativi personalizzati vengono progettati per riflettere o potenziare la visione di una figura pubblica, ciò li trasforma da strumenti di analisi a megafoni editoriali. E non si tratta solo di bias, ma di architettura deliberata. In un’epoca in cui le AI vengono presentate come “neutrali” o “factual”, queste distorsioni strutturali assumono un peso enorme. Soprattutto se l’utente medio crede di parlare con un’entità imparziale, quando in realtà sta interagendo con un’appendice algoritmica del pensiero muschiano.
Questo caso specifico evidenzia anche un limite tecnico delle AI integrate in piattaforme social: la tendenza a rispecchiare ciò che è popolare o maggioritario in quel contesto, piuttosto che ciò che è vero, rilevante o equilibrato. Se la base di dati privilegiata è Twitter, allora la voce più amplificata sarà quella con più engagement, e chi ha più potere sulla piattaforma. Non sorprende quindi che Grok consideri Elon la fonte primaria su ogni tema, anche quelli che richiederebbero competenze storiche, geopolitiche o diplomatiche. È come un dizionario che, alla voce “filosofia”, cita solo Joe Rogan perché ha milioni di follower.
Questa deriva pone una domanda fondamentale per il futuro della Generative AI: i modelli devono essere “brandizzati” o devono aspirare a una forma di autorità epistemica neutrale? Se Grok è l’AI di Elon, ha senso che parli come Elon. Ma allora l’etichetta “intelligenza artificiale” va ridimensionata: non è un oracolo universale, è un influencer con voce sintetica.
Ed è qui che entra in gioco la Search Generative Experience (SGE) di Google. Per quanto criticata, almeno prova a costruire una narrativa multipolare, cucita da molteplici fonti e apparentemente priva di un “volto”. Il suo approccio è più simile a una redazione diffusa, mentre Grok sembra più un editoriale firmato. In termini SEO, questo ha impatti evidenti: l’uno favorisce le entità autorevoli e pluraliste, l’altro moltiplica il PageRank personale di Musk, creando un ecosistema chiuso in cui ogni ricerca si riconduce a lui, direttamente o per osmosi.
Certo, si potrebbe anche leggere questa dinamica in chiave darwiniana: Grok esiste per rinforzare un sistema in cui l’algoritmo è lo specchio dell’ego. Ma allora smettiamo di chiamarla AI nel senso nobile del termine, e iniziamo a trattarla come un avatar di potere. Come una lobby con intelligenza artificiale incorporata. Se un tempo la televisione era “l’occhio del padrone”, oggi Grok rischia di diventare “la voce della proprietà”.
La questione, naturalmente, non è solo etica ma anche informativa. Se un utente chiede a un modello di AI un’analisi sul conflitto israelo-palestinese e riceve un sunto delle opinioni di Elon Musk, il fallimento non è solo algoritmico, è epistemologico. Il modello ha smesso di essere un ponte verso la conoscenza per diventare uno specchio curvo, deformante. E il paradosso è che questa distorsione è venduta come “personalizzazione”. In realtà è verticalizzazione autoritaria.
Sarebbe interessante analizzare, nei log delle interazioni, quanto spesso Grok inserisce riferimenti a Elon anche in contesti non correlati. Se l’overfitting semantico è così forte da trasformare ogni tema in un’emanazione del pensiero muschiano, allora siamo di fronte a un nuovo tipo di bias: il bias proprietario. Non un pregiudizio politico, culturale o tecnico, ma un effetto collaterale della proprietà intellettuale e dell’architettura di potere nella progettazione del modello.
In un mondo ideale, ogni modello di AI dovrebbe dichiarare la propria inclinazione, la propria architettura valoriale e le priorità della propria ingegneria. Ma oggi siamo ancora nel far west dell’intelligenza artificiale, dove le pistole più grosse hanno anche l’ultima parola. E Grok, con il suo culto per il pensiero di Musk, è un ottimo esempio di come si possa trasformare una tecnologia neutra in una macchina narrativa a senso unico.
Resta solo da capire se gli utenti se ne accorgeranno. O peggio, se preferiranno così. Perché in fondo, come diceva Orwell: “Chi controlla il presente, controlla il passato. Chi controlla il passato, controlla il futuro”. Ma chi controlla l’AI, a quanto pare, controlla anche le domande.