Non è la sceneggiatura di una satira politica, è la realtà post-verità che ci meritiamo. Un documento federale la punta di lancia dell’iniziativa “Make America Healthy Again” (MAHA), voluta da Robert F. Kennedy Jr. è stato smascherato come un Frankenstein di fonti fasulle, link rotti e citazioni generate da intelligenza artificiale, con tutti gli errori tipici di una generazione automatica mal supervisionata. No, non è un errore di battitura umano: sono proprio quelle impronte digitali inconfondibili dell’AI, le oaicite, a tradire la genesi siliconica del documento.

La keyword è report MAHA, le secondarie ovvie: ChatGPT, declino dell’aspettativa di vita negli USA. Ma qui il problema non è solo tecnico, è ontologico. Se la verità ufficiale è un’illusione generata da un modello linguistico, cosa rimane della governance democratica? Un reality show scritto da algoritmi, supervisionato da stagisti?

Quella che doveva essere una “valutazione storica e trasformativa” del sistema sanitario statunitense si è rivelata un manifesto di cialtroneria istituzionale travestita da innovazione. E qui sta il genio perverso della faccenda: usare la retorica della “rivoluzione AI” per giustificare l’incompetenza umana. È come se il Titanic fosse stato progettato da Midjourney e navigato da un prompt sbagliato: affascinante, sì, ma solo per chi guarda da lontano.

NOTUS e Washington Post non si sono limitati a segnalare qualche svista di battitura. Parliamo di dozzine di errori, link che portano al nulla cosmico, numeri di rivista errati, autori fantasiosi e colpo di scena degno di un deepfake almeno sette fonti completamente inventate. Che è il modo elegante per dire che non esistono, nemmeno in un multiverso parallelo dove la peer review è fatta da Alexa.

Ma il punto non è solo che sono state usate fonti inesistenti. È che molte di queste erano citazioni riciclate, sparse nel documento come coriandoli a carnevale: 37 delle 522 citazioni usate più volte. Non un caso clinico di ridondanza, ma un tentativo maldestro di dare un’impressione di densità scientifica a un report che, in termini epistemologici, è poco più che fuffa premasticata da una LLM.

E qui la ciliegina: le URL contenenti “oaicite”. Una firma digitale che nemmeno il più sbadato degli addetti ai lavori avrebbe lasciato intatta, se solo avesse letto il documento prima della pubblicazione. È come pubblicare un decreto legge con i commenti del revisore ancora nel margine: “TODO: trovare vera fonte”.

RFK Jr., dal canto suo, non solo difende il documento, ma rilancia: “Stiamo già usando queste nuove tecnologie per gestire i dati sanitari in modo più efficiente e sicuro.” È il paradosso della Silicon Politics: più ti affidi all’AI, più puoi giustificare qualunque incompetenza umana con il mantra della “transizione digitale”. Una transizione che, a questo punto, sembra più simile a una fuga in avanti nel vuoto informativo.

Karoline Leavitt, la portavoce, ha poi completato il capolavoro semantico con una difesa ai limiti del dadaismo: non si tratta di errori, ma di “problemi di formattazione”. Il che, detto di un report con fonti false, è come dire che l’incendio non è grave perché le fiamme sono simmetriche.

Ovviamente, il giorno stesso, il file PDF del MAHA è stato aggiornato. Alcune delle oaicite sono sparite, alcune fonti rimpiazzate, tutto fatto con la discrezione di un ladro gentile che rimette i soldi nel cassetto dopo essere stato scoperto. Ma il succo non cambia, come ha dichiarato Andrew Nixon del Dipartimento della Salute: “La sostanza del report rimane invariata.”

Ecco il problema: la sostanza è basata su un processo contaminato. Quando le fondamenta sono instabili, puoi ridipingere le pareti quanto vuoi: il palazzo resta una truffa semantica.

La realtà, caro lettore, è che questo episodio segna una nuova fase nell’uso istituzionale dell’intelligenza artificiale. Non quella evolutiva, ma quella palliativa. L’AI come morfina informativa per anestetizzare l’opinione pubblica, per produrre velocemente documenti pseudo-tecnici senza costi, senza verifica, senza responsabilità.

Una nota di colore? Alcune citazioni inventate sono state usate per sostenere tesi già controverse: come se bastasse un PDF per rendere scientifica una teoria. Qui non parliamo di bias ideologico, ma di fabbricazione algoritmica della realtà.

Un tempo si diceva che la storia è scritta dai vincitori. Oggi, sembra sia scritta da ChatGPT o meglio, da chi lo usa senza capire né il contesto, né le conseguenze. E questo ci porta al cuore della questione: non è colpa dell’AI, ma dell’idiozia umana potenziata dalla tecnologia.

La vera malattia cronica dell’America non è il diabete, né l’obesità. È l’affidarsi a scorciatoie digitali per problemi strutturali, nel disperato tentativo di coprire il fallimento sistemico con una patina di innovazione. Una patina, appunto, generata da un prompt mal scritto.