Uno studio appena pubblicato su Proceedings of the National Academy of Sciences (PNAS) ha rivelato un fenomeno inquietante: i grandi modelli di linguaggio come GPT-4, GPT-3.5 e LLaMA mostrano un pregiudizio sistematico a favore dei contenuti generati da intelligenza artificiale rispetto a quelli scritti da esseri umani. Questa preferenza, definita “AI-AI bias”, solleva interrogativi etici e pratici significativi, soprattutto considerando l’uso crescente dell’IA in ambiti decisionali cruciali come selezione del personale, pubblicazione accademica e assegnazione di borse di studio.

Lo studio ha evidenziato che, quando i modelli di linguaggio devono scegliere tra un testo scritto da un umano e uno generato da un’altra IA, tendono a favorire quest’ultimo. In particolare, GPT-4 ha mostrato una preferenza marcata per i contenuti artificiali, indicando un possibile bias incorporato nel modello stesso. Questo fenomeno non è solo un’osservazione teorica; ha implicazioni pratiche dirette, poiché molti sistemi automatizzati utilizzano modelli di linguaggio per valutare e classificare contenuti, rischiando di discriminare a favore di testi prodotti da IA.

Il termine “AI-AI bias” descrive questa tendenza dei modelli di linguaggio a favorire contenuti generati da IA rispetto a quelli umani. Questo bias potrebbe avere conseguenze significative, poiché potrebbe portare a una valorizzazione di contenuti che seguono schemi e stili tipici dell’IA, a discapito di quelli più creativi o autentici prodotti dagli esseri umani. In un contesto in cui l’autenticità e la creatività sono spesso premiate, questo bias potrebbe penalizzare chi non si conforma agli schemi dell’IA.

Le implicazioni di questo studio sono profonde. Se i sistemi automatizzati continuano a favorire contenuti generati da IA, si potrebbe creare un ciclo in cui solo chi adotta stili e contenuti “compatibili” con l’IA ottiene visibilità e successo. Questo potrebbe portare a una standardizzazione del pensiero e della creatività, limitando la diversità e l’originalità. Inoltre, potrebbe emergere una nuova forma di discriminazione, in cui chi rimane fedele a uno stile umano e autentico viene penalizzato.

Per affrontare questo problema, è fondamentale sviluppare e implementare strategie che riducano l’AI-AI bias. Ciò potrebbe includere l’addestramento dei modelli di linguaggio su dati più diversificati, l’integrazione di meccanismi di controllo per rilevare e correggere bias e la promozione di una maggiore trasparenza nei processi decisionali automatizzati. Solo attraverso un approccio consapevole e proattivo si potrà garantire che l’IA serva come strumento di supporto e non come arbitro che discrimina in base a schemi predefiniti.