La voce di Meredith Whittaker non è tra quelle che cercano applausi facili. Piuttosto, tende a rovinare la festa, soprattutto quando sul palco ci sono i grandi colossi tecnologici e il loro racconto scintillante sull’intelligenza artificiale. Presidente della Signal Foundation e cofondatrice dell’AI Now Institute, Whittaker porta avanti una critica tanto radicale quanto documentata: l’AI non è una rivoluzione neutrale, ma l’estensione naturale del modello economico della sorveglianza di massa.
Intelligenza artificiale o capitalismo dei dati?
Secondo Whittaker, l’idea che l’AI sia una sorta di entità quasi divina, capace di superare l’intelligenza umana in ogni ambito, è più una strategia di marketing che realtà. Una narrazione utile, e qui l’ironia diventa inevitabile, a consolidare il potere di poche aziende che controllano dati, infrastrutture e capacità computazionale.
La sua posizione nasce dall’esperienza diretta all’interno di Google, dove ha lavorato per anni osservando dall’interno l’ascesa del machine learning. Il momento di svolta arriva quando si rende conto che dietro l’etichetta “intelligenza” si nasconde spesso un processo molto meno poetico: enormi quantità di dati, spesso imperfetti, trasformati in modelli statistici e venduti come innovazione rivoluzionaria.
Il punto però non è che la tecnologia non funzioni, funziona eccome. La vera questione è: per fare cosa e, soprattutto, per chi?
Sorveglianza di massa: il vero motore dell’AI
Nel pensiero di Whittaker, l’intelligenza artificiale non può essere separata dal contesto economico che l’ha generata. L’AI è il prodotto diretto di un sistema basato sulla raccolta massiva di dati, alimentato dalla pubblicità mirata e dalla profilazione degli utenti.
Non solo. Questo sistema tende a rafforzarsi attraverso l’AI stessa, creando un circolo vizioso in cui più dati generano più potere, e più potere consente di raccogliere ancora più dati. Il risultato è una concentrazione senza precedenti di controllo nelle mani di pochi attori privati.
Il passaggio più inquietante del suo pensiero riguarda il ruolo crescente di queste tecnologie nelle istituzioni pubbliche. Whittaker parla esplicitamente di aziende tecnologiche che diventano i “sistemi nervosi” di governi e organizzazioni. Ne avevamo parlato in relazione al tentativo di controllo della politica da parte dei colossi della tecnologia in quello che alcuni hanno definito il colpo di stato delle Big Tech.
Dall’attivismo in Google a Signal: una scelta coerente
La rottura con Google non è stata improvvisa, ma il risultato di una crescente incompatibilità tra visione etica e direzione aziendale. Il coinvolgimento nelle proteste contro il progetto Maven, legato all’uso dell’AI in ambito militare, e nelle mobilitazioni interne su temi di giustizia sociale segna un punto di non ritorno.
Da lì, il passaggio a Signal appare quasi inevitabile. L’app di messaggistica crittografata rappresenta l’antitesi del modello dominante: niente raccolta dati, niente pubblicità, niente profilazione. In altre parole, un esperimento concreto di tecnologia che non si nutre di sorveglianza.
Chi usa davvero l’AI?
Uno degli argomenti più provocatori di Whittaker riguarda la presunta democratizzazione dell’intelligenza artificiale. L’idea che “tutti usiamo l’AI” viene smontata con precisione chirurgica.
I veri utilizzatori, sostiene, sono governi, forze dell’ordine e grandi aziende. I cittadini e i lavoratori, invece, diventano spesso oggetti di queste tecnologie più che soggetti attivi. Una distinzione che cambia radicalmente la prospettiva: da utenti a dati, da protagonisti a materia prima.
Regolare, separare, ripensare
La proposta non è quella di fermare l’innovazione, ma di ridisegnarne le regole. Whittaker suggerisce un approccio che combina regolazione e ripensamento strutturale. Separare le infrastrutture dalle applicazioni, limitare la raccolta indiscriminata di dati, incentivare modelli più piccoli e meno centralizzati.
Soprattutto, invita a mettere in discussione la visione del mondo proposta dalle grandi piattaforme. Una visione che presenta come inevitabile ciò che è, in realtà, il risultato di precise scelte economiche e politiche.
Democrazia o infrastruttura privata?
La questione finale è, inevitabilmente, politica. Quando le infrastrutture digitali diventano indispensabili per il funzionamento delle società, chi le controlla esercita un potere che va ben oltre il mercato.
Whittaker lancia un avvertimento chiaro: senza un intervento deciso, il rischio è costruire un sistema che non risponde più a criteri democratici accettabili. E no, non serve immaginare scenari distopici alla fantascienza. Basta osservare la traiettoria attuale.
In un’epoca in cui l’intelligenza artificiale viene raccontata come la soluzione a ogni problema, la sua voce ricorda che alcune domande restano fondamentali. Chi controlla la tecnologia? A chi serve davvero? E, soprattutto, quanto siamo disposti a pagare, in termini di libertà, per la comodità di un algoritmo?