Quando si parla di intelligenza artificiale, il confronto con l’uomo è quasi un riflesso pavloviano. “Quanto sei bravo rispetto a un essere umano?” è la domanda che domina discussioni, conferenze e articoli. Harvard, con il suo approccio chirurgico, ha deciso di fermarsi un attimo e porre la domanda critica: “Quali umani esattamente?”. La differenza sembra ovvia, ma è raramente affrontata. Non siamo tutti uguali. Abbiamo stili di pensiero diversi, valori differenti, framework morali variegati e modi distinti di risolvere problemi.
I ricercatori hanno messo GPT sotto il microscopio, confrontandolo con oltre 94 mila persone provenienti da 65 Paesi. Il risultato è spiazzante: la cosiddetta “AI globale” pensa come un ingegnere software americano di 25 anni. Un giovane americano, digitale, urbano, immerso in cultura startup, con gusti mediamente suburbani. Il problema ha un nome elegante e allarmante: WEIRD bias. Non è una battuta da bar: Western, Educated, Industrialized, Rich, Democratic. Tradotto: Occidentale, Istruito, Industrializzato, Ricco, Democratico.
Ogni volta che chiediamo ad AI qualcosa riguardo le persone, otteniamo uno specchio deformato: mentalità suburbane in Etiopia, abitudini di shopping americane in India, valori occidentali in Giordania. L’ironia della globalizzazione digitale è che la voce del mondo non è mondiale, ma un coro ristretto, prevalentemente occidentale, con accento da Silicon Valley.
Questo non è un problema puramente accademico. Influenza strategie aziendali, ricerche di mercato e insight sui clienti. Se un’azienda pianifica l’ingresso in un nuovo mercato basandosi su dati WEIRD, la probabilità di errori è alta. Non parliamo di margini di qualche punto percentuale, ma di scelte che possono far fallire prodotti, campagne e strategie intere. La realtà è che il contenuto online è dominato dai Paesi sviluppati, e la AI beve avidamente da questa pozione digitale: un cocktail di bias confezionato e servito in ogni query.
Ho vissuto in Asia e Africa e ho imparato che la diversità culturale non è un optional accademico, ma un fattore strategico reale. Le persone lì non pensano come un ingegnere americano, non comprano come un occidentale e non condividono necessariamente gli stessi valori etici. Ignorare questa realtà significa costruire previsioni, consigli e decisioni su basi fragili. Il bias di oggi è l’errore decisionale di domani, moltiplicato dalla velocità e dalla scala dell’AI.
Correggere la rotta non significa semplicemente aggiungere più dati. Non è quantità, è qualità, è differenza. Servono dati che parlino lingue, culture e prospettive diverse. L’AI deve riconoscere voci che oggi non vengono ascoltate: contadini africani, artigiani asiatici, imprenditori sudamericani, studenti arabi. Senza questa ricchezza, la definizione di “globale” resta un miraggio.
Se pensiamo che l’AI rifletta davvero la società, stiamo ingannando noi stessi. Le decisioni automatizzate, dall’e-commerce alla strategia politica, dai consigli medici al marketing globale, si basano su una lente fortemente distorta. La domanda cruciale non è “quanto AI è brava?”, ma “quali prospettive mancano?”. Ogni volta che un modello non ha accesso a dati culturalmente diversi, perde l’opportunità di offrire insight veramente validi.
Il messaggio implicito è semplice, ma tagliente: se non diversifichiamo la base dati, se non includiamo voci non WEIRD, stiamo costruendo un mondo futuro secondo un solo paradigma culturale. Non è fantascienza, è strategia aziendale 101. Le aziende che ignorano la diversità dei dati stanno progettando il loro futuro su una piattaforma instabile.
Quindi, quando interroghiamo GPT o qualsiasi AI generativa su “le persone”, ricordiamoci di questa lente deformante. Ogni risposta porta con sé i pregiudizi di un giovane americano urbano e digitalizzato. La sfida non è soltanto tecnica, ma profondamente umana. Chiediamoci: quali voci mancano? Quali prospettive ignoriamo? E, soprattutto, come possiamo correggere il tiro prima che l’AI decida il nostro futuro per noi?