l’intelligenza artificiale sta già riscrivendo la democrazia
L’intelligenza artificiale non è più uno strumento tecnico confinato ai laboratori di ricerca o alle startup iper-finanziate della Silicon Valley. È diventata una forza politica, un’architettura di potere che ridefinisce il modo in cui governi, istituzioni e cittadini interagiscono. Bruce Schneier e Nathan E. Sanders, nel loro libro Rewiring Democracy, lo spiegano con una lucidità quasi spietata: l’impatto dell’AI sulla democrazia non dipenderà dagli algoritmi in sé, ma dai sistemi e dagli incentivi che la governano. In altre parole, non è l’AI a essere democratica o autoritaria, ma chi la controlla e come la usa. È la politica del codice, non il codice della politica.
I politici hanno già fiutato il potenziale. Le campagne elettorali diventano operazioni di microtargeting alimentate da modelli predittivi, le email di raccolta fondi vengono personalizzate da chatbot capaci di leggere il tono emotivo dell’elettore, mentre gli assistenti digitali rispondono a richieste dei cittadini con cortesia algoritmica. Tutto più rapido, più efficiente, più “umano” di quanto l’umano riesca a essere dopo un turno di 12 ore. L’AI si presenta come la promessa di una democrazia aumentata: trasparente, partecipativa, responsiva. Ma dietro la vetrina dell’efficienza si nasconde una domanda antica: chi controlla chi?
La stessa tecnologia che può far risparmiare tempo a un funzionario pubblico può anche trasformare un intero apparato statale in una macchina di sorveglianza. L’algoritmo che ottimizza i servizi sociali può diventare lo stesso che decide chi merita o meno un sussidio. E quando il codice sostituisce la compassione, il rischio è che la burocrazia diventi non solo automatizzata, ma anche disumanizzata. È la differenza tra una democrazia che si serve dell’AI e una che le serve obbedienza.
A livello globale, le visioni si stanno polarizzando. In alcuni Paesi si sperimentano candidati “virtuali” che sintetizzano in tempo reale i desideri dell’elettorato. In altri, l’intelligenza artificiale viene integrata in strategie militari e di sorveglianza di massa. La Cina perfeziona il suo modello di governance algoritmica, mentre l’Occidente, diviso tra idealismo e profitto, discute di etica nei convegni e finanzia colossi privati che monopolizzano il futuro. L’AI è diventata un nuovo terreno geopolitico: chi la possiede, controlla non solo i dati, ma la narrativa.
Il fenomeno dei deepfake rappresenta una minaccia più profonda della disinformazione tradizionale. Se un tempo bastava un fotografo di regime per cancellare un volto dalle immagini ufficiali, oggi bastano pochi secondi di video sintetico per riscrivere la realtà. La verità è diventata un file .mp4 modificabile, e la fiducia pubblica un bene di lusso. Quando non si può più credere ai propri occhi, il concetto stesso di democrazia vacilla. È la post-verità in formato 4K.
Intanto, studiosi e attivisti come Ruha Benjamin, Cathy O’Neil e il movimento Algorithmic Justice League denunciano un sistema dove i pregiudizi sociali vengono codificati e amplificati. Gli algoritmi di selezione del personale discriminano, quelli giudiziari replicano disuguaglianze storiche, e le piattaforme di credito sociale premiano la conformità. È la matematica del potere, vestita da oggettività. Non c’è neutralità nel codice, solo interessi nascosti dietro la promessa di efficienza.
L’Unione Europea, con l’AI Act, prova a costruire una cornice regolatoria, ma la struttura è fragile e piena di falle. Il legislatore corre dietro a tecnologie che evolvono più rapidamente delle sue stesse procedure. Nel frattempo, i governi occidentali continuano a finanziare aziende private che monetizzano ricerche nate in ambito pubblico, generando un paradosso: il denaro collettivo alimenta sistemi che poi escludono il pubblico dal controllo. È la privatizzazione del futuro, mascherata da progresso.
Il problema più profondo resta quello del potere. L’intelligenza artificiale consente una centralizzazione senza precedenti, rendendo possibile gestire strutture amministrative complesse con un numero ridotto di esseri umani. Meno persone, più automazione, meno opposizione. In un certo senso, l’AI è il sogno di ogni burocrate autoritario: un sistema che esegue senza protestare, che decide senza chiedere, che controlla senza dormire.
Ma non sono solo gli Stati a esercitare questo potere. L’oligarchia tecnologica che domina l’intelligenza artificiale ricorda la concentrazione di potere dei magnati delle ferrovie del XIX secolo o dei giganti del web degli anni 2000. Cinque aziende dettano gli standard, scrivono le regole, definiscono i limiti del possibile. Parlano di open innovation, ma agiscono come imperi chiusi. E ogni nuova API concessa al pubblico è un atto di grazia, non di libertà.
Quando la governance diventa un processo opaco mediato da algoritmi, la democrazia perde visibilità. Si parla di “governance digitale”, ma spesso significa semplicemente che il cittadino non sa più chi prende le decisioni, né in base a quali criteri. L’efficienza è diventata una nuova forma di censura: tutto funziona meglio, ma nessuno sa perché. La trasparenza è sostituita da dashboard scintillanti, e la partecipazione da click che simulano consenso.
In fondo, la storia dell’intelligenza artificiale nella politica non è una storia tecnologica. È una storia di potere, di controllo, di responsabilità. L’AI può diventare lo strumento più potente per rendere i governi più trasparenti, o la leva definitiva per costruire società perfettamente sorvegliate. Tutto dipende da chi scrive il codice e da chi lo verifica.
Senza una governance civica consapevole, rischiamo di costruire stati dati-centrici, dove l’empatia viene compressa in metriche di performance. Ma con un uso guidato da principi di giustizia, apertura e proprietà pubblica, l’intelligenza artificiale potrebbe effettivamente rafforzare la democrazia. Non si tratta di scegliere tra ottimismo e paura, ma di capire che la decisione è politica. La tecnologia non è mai neutra, e la democrazia digitale non si programma: si negozia, ogni giorno, tra umani e macchine.
La scelta, come scrivono Schneier e Sanders, non è nel codice. È in noi.