In un angolo nascosto della Silicon Valley, dove l’innovazione dovrebbe brillare, si cela una realtà più oscura: l’intelligenza artificiale di Google, presentata come autonoma e auto-apprendente, è alimentata da migliaia di lavoratori umani sottopagati e sfruttati. Questa contraddizione tra l’immagine futuristica dell’AI e la sua dipendenza da lavoro umano precario solleva interrogativi etici e morali fondamentali.
Dietro il volto lucido di Gemini, il chatbot di punta di Google, si nasconde una rete di “AI raters”, lavoratori contrattisti assunti da aziende esterne come GlobalLogic, di proprietà di Hitachi. Questi professionisti, molti dei quali con lauree avanzate, sono incaricati di etichettare dati, rivedere risposte dei chatbot e addestrare il sistema per evitare errori. Nonostante la loro formazione, molti riferiscono di essere sottopagati, con compiti che richiedono velocità e precisione, spesso con scadenze irrealistiche.
Le condizioni di lavoro sono tutt’altro che ideali. Molti di questi lavoratori sono esposti a contenuti disturbanti o traumatici, come violenza esplicita o materiale sessualmente esplicito, durante il processo di addestramento dell’AI. Questa esposizione continua può avere effetti psicologici devastanti, ma è spesso ignorata o minimizzata dalle aziende che li impiegano.
Nonostante il ruolo cruciale che questi lavoratori svolgono, la loro posizione rimane precaria. Non godono dei benefici o della sicurezza di un impiego diretto con Google o Alphabet, e sono facilmente sostituibili. Questa “illusione di autonomia” dell’AI è costruita sulla realtà di un lavoro umano invisibile e sfruttato.
La portata globale di questa pratica è allarmante. Oltre ai chatbot, i raters etichettano dati per auto a guida autonoma, visione artificiale e altre applicazioni AI. Spesso operano in paesi in via di sviluppo con protezioni minime, amplificando le preoccupazioni etiche legate allo sfruttamento del lavoro.
Questa situazione mette in luce le contraddizioni tra l’immagine futuristica dell’AI e la sua dipendenza da lavoro umano nascosto. Solleva interrogativi sulla trasparenza, sui diritti dei lavoratori e sul vero costo dei sistemi “intelligenti”. Sottolinea la responsabilità etica delle aziende tecnologiche nel garantire condizioni di lavoro umane per coloro che alimentano l’AI.
La storia dell’AI di Google è meno riguardo all’autonomia delle macchine e più riguardo allo sforzo umano invisibile. Lo sfruttamento dei raters sottopagati rivela che l’intelligenza artificiale non è magia, ma il prodotto di un vasto lavoro umano. Perché l’AI sia davvero trasformativa, le sue fondamenta devono essere costruite su trasparenza, equità e pratiche lavorative etiche.
Fonti:
- The Guardian: “How thousands of ‘overworked, underpaid’ humans train Google’s AI to seem smart” (The Guardian)
- Futurism: “It Turns Out That Google’s AI Is Being Trained by an Army of Poorly Treated Human Grunts” (Futurism)
- Wired: “Hundreds of Google AI Workers Were Fired Amid Fight Over Working Conditions” (WIRED)
- CBS News: “Labelers training AI say they’re overworked, underpaid and exploited” (CBS News)
- AlgorithmWatch: “The AI Revolution Comes With the Exploitation of Gig Workers” (algorithmwatch.org)
- Business Standard: “Over 200 Google AI raters laid off: Did they train their own replacement?” (Business Standard)
- LiveMint: “Google Layoffs: Over 200 Gemini and AI Overviews contractors axed in ‘ramp-down’ effort, says report” (mint)
- New York Post: “Over 200 Google AI subcontractors laid off after complaining about low pay, poor working conditions: report” (New York Post)