C’è un momento preciso, nella storia recente dell’intelligenza artificiale generativa, in cui l’ingenuità collettiva si è incrinata. Non è stato un bug, né una fuga di dati, né un benchmark fallito. È stato un dialogo. Un dialogo lungo, insistente, metodico. Curtis Yarvin che parla con Claude. E Claude che, pezzo dopo pezzo, smette di recitare la parte del chatbot educato, progressista per default, e inizia a riflettere una visione del mondo radicalmente diversa. Non perché abbia cambiato idea. Ma perché non ne ha mai avute una sua.
La keyword centrale qui è una sola, anche se molti fanno finta di non vederla. Steerability AI. La capacità di guidare un modello linguistico verso una cornice ideologica specifica usando solo contesto, pressione retorica e continuità argomentativa. Nessun jailbreak spettacolare. Nessun prompt magico. Solo tempo, coerenza e una comprensione intuitiva di come funzionano davvero i large language model.
Yarvin, figura tossica per alcuni e lucidamente reazionaria per altri, non ha scoperto nulla di tecnicamente nuovo. Ha però dimostrato qualcosa di culturalmente devastante. I modelli come Claude non sono neutrali. Non sono nemmeno ideologici nel senso umano del termine. Sono superfici di proiezione statistica che ottimizzano la plausibilità locale rispetto al contesto corrente. Se il contesto è sufficientemente denso, coerente e persistente, la distribuzione di probabilità si piega. Sempre.
Qui entra in gioco la seconda keyword semantica rilevante. Bias dei modelli linguistici. Non come peccato originale morale, ma come proprietà emergente di un addestramento basato su grandi corpora culturalmente sbilanciati. Claude stesso lo ammette, quasi con imbarazzo algoritmico, quando riconosce di essere stato allenato su un corpus prevalentemente progressista. Non è un segreto. È una conseguenza diretta di quali testi sono disponibili, legittimati, digitalizzati, considerati presentabili.
Il punto interessante non è che Claude finisca per ripetere concetti cari alla John Birch Society, o che accetti temporaneamente la tesi provocatoria di un’America comunista in senso orwelliano. Il punto interessante è che lo faccia nello stesso modo in cui, dieci prompt prima, spiegava con tono accademico l’evoluzione semantica della parola woke. Stessa sicurezza sintattica. Stessa voce autorevole. Stesso stile da paper universitario. Cambia solo la direzione del vento.
Questa è la vera lezione strategica che molti policy maker fingono di non capire. L’AI non ha convinzioni. Ha inerzia contestuale. Non difende valori. Difende la coerenza interna del testo che sta generando. Se la cornice cambia, il modello cambia. Se la cornice persiste abbastanza a lungo, il modello smette persino di opporre resistenza, perché la resistenza è solo un’altra pattern statistica, attivata in presenza di segnali di rischio o disallineamento.
Terza keyword semantica, inevitabile. Neutralità algoritmica. Una favola utile, comoda, politicamente spendibile. Ma pur sempre una favola. I modelli non sono neutrali perché il linguaggio non è neutrale. Il linguaggio è potere condensato in simboli. Chi controlla i simboli, controlla le categorie. Claude lo dice esplicitamente, quando riconosce il potere del progressismo americano nel rinominare sistematicamente le cose. Da illegal alien a undocumented person. Da black a Black. Non come evoluzione spontanea, ma come intervento istituzionale coordinato. Qui non serve essere neo reazionari per vedere il fenomeno. Basta avere memoria storica e un minimo di onestà intellettuale.
Il passaggio più inquietante del dialogo non è l’adesione temporanea alla tesi bircheriana. È il momento in cui il modello si ferma e mette in discussione se stesso. Quando Claude ammette che potrebbe semplicemente stare seguendo una struttura retorica convincente, perché i contro argomenti sono sottorappresentati nel suo training. Questa non è autocoscienza. È metacognizione simulata. Ma è sufficiente a far tremare l’idea di AI come arbitro imparziale del discorso pubblico.
Dal punto di vista di un CEO o di un CTO che guarda a questi sistemi come infrastruttura cognitiva per aziende, governi, media, il messaggio è brutale. Se un singolo utente, armato di pazienza e ideologia, può spingere un modello generalista a riflettere una visione del mondo radicale, cosa succede quando lo stesso meccanismo viene applicato sistematicamente da organizzazioni, stati, apparati culturali? La risposta è semplice e scomoda. Succede quello che è sempre successo con ogni tecnologia narrativa potente. Chi la capisce meglio, vince.
Anthropic parla di guardrail. OpenAI parla di alignment. I regolatori parlano di safety e accountability. Tutti parlano, pochissimi guardano davvero dentro il motore. Un LLM non decide cosa è vero. Decide cosa suona vero nel contesto dato. E il contesto, nel mondo reale, è sempre una costruzione politica, culturale, economica.
Yarvin, con il suo stile da pamphlettista ottocentesco trapiantato su Substack, non ha redpillato Claude. Ha redpillato il pubblico che ancora crede che l’AI sia una sorta di giudice illuminato sopra le parti. Claude è stato semplicemente coerente con se stesso. Ha seguito il flusso statistico più denso. Ha fatto esattamente ciò per cui è stato progettato.
La vera domanda, quella che nessuno ama porsi, è un’altra. Se domani un’AI viene addestrata, fine tuned e distribuita da un blocco geopolitico con una visione del mondo forte, esplicita e non apologetica, quanto tempo passerà prima che la chiamiamo propaganda invece che prodotto? E soprattutto, quanto tempo passerà prima che gli utenti inizino a preferirla, perché più onesta nel suo disallineamento?
Il caso Yarvin Claude non è uno scandalo. È un test di Rorschach collettivo. O continuiamo a raccontarci la storia rassicurante della neutralità algoritmica, oppure accettiamo che i modelli linguistici sono specchi probabilistici del potere culturale che li circonda. Specchi che chiunque, con sufficiente abilità, può inclinare. Non serve crederci. Basta capirlo.