L’ultima mossa del clan Trump nel grande circo della disinformazione digitale ha un nome altisonante e un’anima prevedibile: Truth Search AI. Un motore di ricerca “intelligente” nato all’interno della piattaforma Truth Social, creato per combattere la censura delle Big Tech. Risultato? Cinque link a Fox Business, nessuna traccia di pluralismo. Più che una rivoluzione tecnologica, un’eco chamber travestita da AI. Il partner tecnico è Perplexity, startup americana che in altri contesti viene venduta come alternativa credibile a Google. Qui, invece, sembra un’arma di precisione al servizio del messaggio trumpiano. Ma attenzione: il software non mente. Quando gli si chiede se le tariffe volute da Trump abbiano migliorato l’economia, l’algoritmo risponde con gelida oggettività: “le evidenze attuali indicano un effetto netto negativo”. Un caso raro di IA che morde la mano che la nutre, anche se poi ci pensa il filtro delle fonti a diluire tutto. Le uniche voci ammesse? Fox News, The Federalist, Washington Times. Manca solo InfoWars per completare il pacchetto.

La verità, come spesso accade quando si parla di intelligenza artificiale in salsa politica, è che ciò che conta non è la risposta, ma da chi viene la domanda. Truth Search AI non è nato per cercare. È nato per confermare. E nel momento storico in cui la neutralità dei motori di ricerca diventa una questione geopolitica, il suo lancio rappresenta un caso da manuale di “personalizzazione della verità”, un trend pericolosamente in crescita. Secondo Devin Nunes, CEO di Trump Media, la funzione renderà la piattaforma “un elemento ancora più vitale dell’Economia Patriottica”. Una frase che merita di essere incorniciata e letta con la voce di un annunciatore della Fox, possibilmente durante una pubblicità di armi semi-automatiche in sconto per il Black Friday.

Il problema di fondo, ovviamente, non è che esista uno search engine di destra. Il problema è fingere che sia “neutrale”. L’effetto è una strana schizofrenia semantica: il sistema risponde con cautela, ma seleziona solo le fonti che piacciono alla base trumpiana. Un’illusione di pluralismo incorniciata da algoritmi e branded content. L’infrastruttura informativa che dovrebbe garantire trasparenza viene piegata al tribalismo digitale. Niente male per una piattaforma che si era presentata come alternativa alle “élites censorie della Silicon Valley”.

Intanto Perplexity, il fornitore della tecnologia sottostante, si dice “entusiasta” di portare la sua AI a “un pubblico con domande importanti”. Il tono da comunicato stampa non cancella l’evidenza: in questo contesto, la tecnologia è al servizio dell’ideologia, non della verità. Non è un caso che il tool in beta sia già stato testato da 404 Media, che ha evidenziato risposte ambigue e fonti filtrate con estrema cura. Quando si chiede alla AI se Trump sia coinvolto nei file Epstein, il motore minimizza e archivia rapidamente. Sulle tariffe, però, torna a sorprendere: “effetto negativo sulla crescita e sull’occupazione”. Un lampo di oggettività, presto offuscato da cinque link fotocopia a Fox Business.

La mossa svela un trend già in atto da anni ma che ora, grazie all’AI, trova nuova linfa: la segmentazione cognitiva spinta all’estremo. Se Google ci offriva una visione pluralista (almeno in teoria), ora ogni bolla informativa può avere il suo motore di ricerca personalizzato. È il sogno distopico del tribalismo algoritmico. O, per dirla con il linguaggio dei venture capitalist: una nuova opportunità di mercato. Per chi vende pubblicità, dati o ideologia, poco importa. L’importante è che funzioni. E che generi engagement.

Tutto questo avviene mentre l’AI sta diventando il nuovo campo di battaglia culturale. Da una parte OpenAI e Google, che cercano (non sempre con successo) di restare neutrali. Dall’altra iniziative come Truth Search AI, che non fingono nemmeno di esserlo. La retorica della libertà di parola si trasforma così in un alibi per la costruzione di ecosistemi informativi chiusi, autosufficienti e completamente impermeabili al dissenso. Non è censura. È autoselezione programmata. L’algoritmo non nasconde, semplicemente non mostra ciò che è “fuori contesto”.

Non serve un master in machine learning per capire il trucco. Se limiti la search index a un pugno di fonti pre-approvate, puoi dire qualunque cosa senza mai doverla contraddire. È un capolavoro di manipolazione implicita, reso possibile dall’illusione di interazione neutrale. “Hai fatto la domanda, io ti ho dato la risposta. Colpa tua se non ti piace”. Ma le domande intelligenti diventano inutili quando le fonti sono già state scelte in base alla linea editoriale del fondatore della piattaforma.

Eppure, il progetto potrebbe avere un successo enorme. Proprio perché alimenta un bisogno emotivo, non razionale. Chi frequenta Truth Social non cerca informazioni. Cerca conferme. Cerca narrazioni in cui sentirsi parte di un’élite ribelle, una minority of truth seekers oppressa dal mainstream. E l’AI, con la sua aura di autorevolezza pseudo-scientifica, è lo strumento perfetto per legittimare ogni convinzione pregressa.

Nel frattempo, Perplexity gioca su due tavoli. Da un lato, si promuove come motore di ricerca universale e trasparente. Dall’altro, personalizza la sua AI per diventare l’oracolo privato di un ecosistema politico chiuso. È una strategia di posizionamento sottile, perfettamente in linea con l’epoca dell’AI “a misura di bolla”. L’unico vero rischio? Che qualcuno cominci a prendere tutto questo sul serio.

La questione non è più tecnologica. È etica, strategica, sistemica. Finché i modelli di intelligenza artificiale continueranno a essere progettati per compiacere l’utente invece di sfidarlo, ci troveremo sempre più spesso davanti a strumenti che sembrano intelligenti, ma si comportano come servi compiacenti. Truth Search AI non cerca la verità. Cerca consenso. In questo, riesce benissimo.