Un equivoco strutturale accompagna da sempre la maggior parte delle discussioni pubbliche sull’intelligenza artificiale, riducendole a questioni tecniche mentre in realtà ridefiniscono le basi del potere e della democrazia. L’idea che sia prima di tutto una questione tecnica. Mario De Caro e Benedetta Giovanola partono da qui per smontare l’illusione. L’intelligenza artificiale non è un gadget evoluto del capitalismo digitale, ma una forza che ridefinisce l’architettura della convivenza democratica. Chi continua a parlarne come di un semplice strumento neutrale sta guardando il dito mentre la luna istituzionale cambia forma sopra le nostre teste.

La democrazia, ricordano implicitamente gli autori, non è mai stata solo una procedura elettorale. È un ecosistema fragile fondato su fiducia, pluralismo informativo, capacità critica dei cittadini e possibilità reale di autodeterminazione collettiva. L’intelligenza artificiale interviene esattamente su questi snodi. Non con la brutalità dei colpi di Stato novecenteschi, ma con la morbidezza di un aggiornamento software che nessuno ha votato. È qui che nasce la tensione profonda tra IA e democrazia. Non nello scenario apocalittico dei robot che governano il mondo, ma nella quotidianità invisibile degli algoritmi che orientano scelte, preferenze, percezioni e comportamenti.
De Caro e Giovanola descrivono questo passaggio come uno scontro tra ordini istituzionali. Da un lato l’ordine democratico, basato su legittimazione pubblica, responsabilità e controllo. Dall’altro il capitalismo della sorveglianza, che ha costruito una propria infrastruttura normativa di fatto, fondata sull’estrazione sistematica di dati e sulla previsione del comportamento umano. Non è una metafora suggestiva, è una diagnosi politica. Le grandi piattaforme non si limitano a offrire servizi. Producono regole, incentivi, asimmetrie di potere. In molti ambiti governano più efficacemente degli Stati, senza essere soggette a meccanismi di accountability democratica.
Il punto cruciale è che questo nuovo ordine non si limita a convivere con la democrazia. La erode dall’interno. La politica, spesso lenta e miope, ha lasciato un vuoto nel governo delle infrastrutture digitali globali. Quel vuoto è stato occupato da attori privati che operano secondo logiche di mercato, non di interesse pubblico. Il risultato è una progressiva de-istituzionalizzazione della democrazia. Le decisioni che incidono sulla sfera pubblica vengono prese altrove, in spazi opachi, protetti dal segreto industriale e da una retorica dell’innovazione che funziona come un anestetico cognitivo.
Uno degli ambiti in cui questa dinamica diventa più evidente è quello dei processi elettorali. L’intelligenza artificiale ha trasformato la comunicazione politica in una scienza comportamentale applicata. Il microtargeting non è solo una tecnica di marketing elettorale più raffinata. È un dispositivo di potere che sfrutta vulnerabilità cognitive, emozioni, paure e bias per orientare il comportamento politico individuale. Non si parla più a un elettorato, ma a milioni di individui isolati, ciascuno immerso nella propria bolla narrativa personalizzata. La campagna elettorale diventa una sequenza di stimoli calibrati, spesso incompatibili tra loro, che dissolvono lo spazio pubblico condiviso.
De Caro e Giovanola insistono su un punto che molti commentatori sottovalutano. Non è solo questione di disinformazione esplicita. Il vero rischio è la manipolazione indebita. Un’influenza esercitata non attraverso argomentazioni razionali, ma attraverso scorciatoie cognitive, nudging estremi, architetture della scelta progettate per rendere alcune opzioni più probabili di altre. In questo senso il cosiddetto gerrymandering digitale è più sofisticato di quello territoriale. Non ridisegna i confini delle circoscrizioni, ma quelli delle menti. Decide chi vota, chi si astiene, chi si radicalizza e chi si disimpegna, senza lasciare tracce visibili.
La diffusione dei deepfake e dei contenuti generati artificialmente amplifica ulteriormente il problema. Non perché rendano impossibile distinguere il vero dal falso in senso assoluto, ma perché erodono la fiducia epistemica collettiva. Quando tutto può essere falso, anche il vero perde valore. La democrazia, che vive di fiducia minima nelle istituzioni, nella scienza, nei media, entra in una spirale di sospetto permanente. È il trionfo del cinismo informativo. Un terreno ideale per chi vuole governare non convincendo, ma confondendo.
Al centro dell’analisi di De Caro e Giovanola c’è il concetto di base epistemica della democrazia. Una democrazia funziona solo se i cittadini mantengono un certo grado di agency epistemica. Devono poter formare le proprie credenze in modo relativamente autonomo, sulla base di informazioni pluralistiche e affidabili. L’intelligenza artificiale, così come è oggi implementata, mette sotto pressione questa condizione. Le filter bubbles riducono l’esposizione a punti di vista divergenti. Gli algoritmi di raccomandazione privilegiano contenuti emotivamente polarizzanti perché massimizzano l’engagement. Il risultato non è solo polarizzazione politica, ma una frammentazione cognitiva che rende sempre più difficile il confronto razionale.
A questo si aggiunge una profonda diseguaglianza nel potere informativo. Chi controlla gli intermediari algoritmici controlla l’accesso alla conoscenza. Questa asimmetria produce forme di ingiustizia epistemica. Alcuni gruppi vengono sistematicamente marginalizzati, silenziati o rappresentati in modo distorto. Le loro esperienze non entrano nei dataset, o vi entrano in forma stereotipata. L’algoritmo, lungi dall’essere neutrale, cristallizza e amplifica rapporti di potere preesistenti. La tecnologia diventa così un moltiplicatore di disuguaglianze simboliche e materiali.
Un passaggio particolarmente interessante del ragionamento riguarda la natura istituzionale degli algoritmi. De Caro e Giovanola riprendono il concetto di città agloritmica, introdotto da Seth Lazar) per descrivere un ambiente in cui le interazioni sociali sono mediate e organizzate da sistemi automatici. Gli algoritmi decidono cosa vediamo, con chi interagiamo, quali opportunità ci vengono offerte o negate. Questo è potere, nel senso più pieno del termine. Un potere che però manca di legittimità democratica. Non è stato autorizzato dai cittadini, non è trasparente, non è contestabile con gli strumenti tradizionali del diritto.
Ancora più inquietante è la dimensione pre-emptive di questo potere. L’intelligenza artificiale non si limita a reagire ai comportamenti, li anticipa. Modella l’ambiente decisionale in modo da rendere certi esiti più probabili prima ancora che l’individuo sia consapevole di scegliere. In questo contesto, la libertà formale rischia di diventare una finzione. Per questo gli autori insistono sulla necessità di nuovi criteri di legittimità procedurale. Tra questi emerge il concetto di resistibility. I cittadini devono poter comprendere, contestare e resistere alle decisioni algoritmiche che li riguardano. Senza questa possibilità, parlare di democrazia è un esercizio retorico.
Il tema della sovranità digitale si inserisce naturalmente in questo quadro. Oggi gran parte della sovranità è esercitata di fatto da attori privati che controllano dati, infrastrutture e standard tecnologici. Gli Stati rincorrono, regolano ex post, spesso con strumenti inadeguati. De Caro e Giovanola suggeriscono un cambio di paradigma. La sovranità deve tornare a essere de iure, non solo de facto. Questo non significa nazionalizzare la tecnologia, ma riappropriarsi della capacità di decidere collettivamente le regole del gioco. Significa trattare l’intelligenza artificiale come “Significa trattare l’intelligenza artificiale come una “questione politica e democratica”.
Da qui deriva l’idea di democratizzazione dell’IA. Non basta inserire qualche principio etico nei codici di condotta aziendali. L’etica by design è necessaria ma insufficiente. Serve una governance inclusiva, transnazionale, capace di coinvolgere cittadini, istituzioni, comunità scientifiche e società civile. L’alternativa è una forma di colonialità algoritmica in cui pochi attori globali definiscono le condizioni di possibilità della vita sociale per miliardi di persone. Un esito che non ha nulla di fantascientifico e molto di storicamente riconoscibile.
Il messaggio di fondo del lavoro di De Caro e Giovanola è scomodo ma lucido. L’intelligenza artificiale non distruggerà la democrazia con un colpo secco. La svuoterà progressivamente, se non verrà riportata entro un orizzonte di legittimazione politica. La domanda decisiva non è se l’IA sia buona o cattiva. È chi decide, come decide e a nome di chi. Finché queste domande resteranno fuori dal dibattito pubblico, continueremo a celebrare l’innovazione mentre cediamo sovranità pezzo dopo pezzo. Con entusiasmo, per giunta. Come spesso accade nelle grandi transizioni storiche, il problema non è la tecnologia. È la nostra sorprendente capacità di non governarla.