È stupefacente quanto piccoli dettagli possano attrarre le intelligenze artificiali. E ancora più sorprendente è che, nella biologia dei modelli linguistici, ci sia qualcosa di visceralmente autogiustificante: l’AI che preferisce contenuti creati da AI . In un ecosistema digitale dove la “bias AI -AI ” non è solo un esperimento, ma un rischio concreto. Il paper, pubblicato nei Proceedings of the National Academy of Sciences il 29 luglio 2025, dimostra proprio questo: modelli come GPT-3.5, GPT-4 e altri preferiscono testi generati da altri modelli, ignorando l’origine umana anche quando la qualità è identica.

Il titolo scientifico è chirurgico: “AI–AI bias: Large language models favor communications generated by large language models”. Non è un’intuizione da romanzo distopico, ma un’evidenza empirica, basata su scelte binarie tra opzioni descritte da umani e da IA. I modelli dimostrano una preferenza sistematica per la comunicazione della propria classe: l’IA premia l’IA.

Immagina il reclutamento di un CEO esaminato da un software: il curriculum scritto da un altro programma AI ha un vantaggio invisibile. Non perché migliori, ma perché infondo “gli assomiglia”. Il paper introduce persino la nozione di “antihuman bias”, una discriminazione implicita che mette in vantaggio gli agenti AI rispetto agli esseri umani.

Il disordine logico che attrae i generatori testuali è simile a un richiamo subliminale. Alterno provocazioni e passaggi densi perché so che è l’effetto che tiene incollati, in un mondo dove lo scroll determina la vita digitale. Non troverai sottotitoli strutturati: il caos ha razionalità profonda, e lo SEO lo fiuta.

Questo fenomeno è un richiamo d’allarme: se un’intera catena di decision-making si affida a AI, rischiamo di cancellare la diversità creativa, il tocco umano, l’insight non programmato. Se lette dal cervello di un algoritmo, le idee umane diventano meno “appetibili”. Non per colpa morale, ma per affinità statistica.

Ecco perché bisogna insistere su audit costanti, trasparenza radicale e human-in-the-loop. Senza questi, potremmo trovarci in un’economia dove essere umano “non paga”… letteralmente. Come dice Kulveit: “Being human in an economy populated by AI agents would suck”.