L’intelligenza artificiale promette di cambiare il mondo, ma nel frattempo continua a essere progettata da una parte sola del mondo. Nel settore che sta ridisegnando economia, lavoro e informazione, le donne restano una minoranza. Secondo uno studio della Asian Development Bank, solo il 30% dei professionisti dell’intelligenza artificiale è donna. Un miglioramento rispetto al passato, appena quattro punti percentuali in più rispetto al 2016, ma ancora lontano da qualsiasi idea di equilibrio.

Il dato diventa ancora più significativo se si guarda alla ricerca scientifica. Qui la percentuale femminile scende al 12%. Nei ruoli senior la rappresentanza si ferma al 23%, mentre tra i tecnici senior si riduce all’8%. Nelle posizioni di leadership la presenza femminile si assottiglia ulteriormente, quasi come se l’algoritmo invisibile della carriera avesse deciso di filtrare alcuni profili prima ancora di arrivare al codice.

Una situazione che assume contorni paradossali se si considera la velocità con cui cresce il mercato dell’intelligenza artificiale. Il fatturato globale del settore dovrebbe superare i 400 miliardi di dollari entro il 2027. Una corsa tecnologica che procede a pieno ritmo mentre l’equilibrio di genere resta fermo al palo.

Quando gli algoritmi imparano i pregiudizi

Il problema non riguarda solo la parità di opportunità nel lavoro. Il punto è molto più tecnico e, allo stesso tempo, molto più politico. L’assenza di diversità nello sviluppo dell’AI influisce direttamente su come i sistemi vengono progettati.

Secondo l’analisi della Asian Development Bank, la sottorappresentanza delle donne incide sulle priorità di sviluppo, sulla scelta dei dati utilizzati e sul modo in cui vengono valutati i risultati. In altre parole, gli algoritmi imparano dal mondo che vedono. Se quel mondo è filtrato da una prospettiva limitata, anche l’intelligenza artificiale finirà per replicare quella stessa visione.

Non si tratta di una teoria astratta. Alcuni modelli linguistici, hanno mostrato una tendenza ad associare le donne a ruoli domestici e gli uomini a professioni e carriere. Un comportamento che non nasce da una scelta deliberata della macchina ma dai dati utilizzati per addestrarla e dai processi di progettazione che non includono una prospettiva di genere. In buona sostanza, se il dataset racconta un mondo pieno di stereotipi, l’AI impara gli stereotipi e li riproduce con una precisione matematica.

Il caso Grok e i deepfake sessuali

La questione è tornata al centro del dibattito anche dopo il recente caso dei deepfake sessuali generati con Grok, il chatbot sviluppato dalla società di Elon Musk. Alcuni utenti hanno utilizzato il sistema per creare immagini pornografiche non consensuali di donne e minori. Un episodio che ha spinto l’Unione Europea ad aprire un’indagine.

Senza entrare nei dettagli della vicenda, il caso mostra quanto sia fragile il confine tra innovazione e abuso quando la tecnologia cresce più velocemente delle regole e della consapevolezza sociale. Anche in questo scenario la composizione dei team di sviluppo conta. Una maggiore diversità nei gruppi che progettano queste tecnologie aumenta la probabilità che certi rischi vengano individuati prima. Ovvero, più punti di vista significano meno sorprese spiacevoli.

Bias algoritmici e impatti reali

Gli effetti dei bias tecnologici non restano confinati ai laboratori. Gli algoritmi entrano nelle decisioni che riguardano la vita quotidiana. Sistemi automatici di selezione del personale possono penalizzare curriculum che contengono parole come “donne” o riferimenti ad attività legate alla parità di genere. I modelli di credit scoring possono svantaggiare le donne nell’accesso al credito. L’uso di dati sanitari non distinti per genere può produrre diagnosi meno accurate per le pazienti. In alcuni casi la tecnologia amplifica disuguaglianze già esistenti invece di ridurle.

In Asia e nel Pacifico, area su cui si concentra una parte significativa della ricerca, il 21% dei posti di lavoro occupati da donne è ad alto rischio di automazione, contro il 18% di quelli maschili. Anche qui la tecnologia non appare neutrale come spesso viene raccontata.

Senza diversità l’AI è meno intelligente

La narrazione dominante descrive l’intelligenza artificiale come un sistema oggettivo, basato su dati e matematica. In realtà gli algoritmi sono progettati da esseri umani, addestrati su dati prodotti dagli esseri umani e utilizzati dentro sistemi sociali costruiti dagli esseri umani. Un livello di neutralità assoluta semplicemente non esiste.

Per questo la questione del gender gap non riguarda solo l’equità ma anche la qualità tecnologica. Sistemi progettati da team più diversificati tendono a individuare più rapidamente errori, rischi e distorsioni. In altre parole, più diversità equivale a migliore ingegneria.

La sfida per il futuro dell’intelligenza artificiale

La riflessione torna particolarmente attuale oggi, in occasione della Giornata Internazionale della Donna. L’intelligenza artificiale sta diventando un’infrastruttura invisibile della società, capace di influenzare lavoro, informazione, sanità e finanza. Se questa infrastruttura viene progettata senza una presenza equilibrata di donne, il rischio è quello di costruire sistemi che funzionano bene per alcuni e meno bene per altri.

La ricerca della Asian Development Bank conclude con un messaggio chiaro. Man mano che l’intelligenza artificiale diventa parte integrante delle economie e delle società, l’uguaglianza di genere deve essere trattata come un principio fondamentale. Governi, aziende e istituzioni devono integrare questa prospettiva in ogni fase dello sviluppo tecnologico, dalla progettazione alla distribuzione.

Una questione di diritti, certo. Ma anche di qualità del software. Perché nel codice del futuro, ignorare metà della popolazione non è solo ingiusto, è anche un pessimo design.