Era il 2020 quando molti guardavano le proteste di Black Lives Matter come uno spartiacque nella lotta per i diritti civili. Ma dietro ogni slogan urlato in piazza, un altro rumore, più sottile, si insinuava nel cielo americano: il ronzio di droni, l’occhio onniveggente dell’IA, al servizio dell’apparato di sicurezza interna degli Stati Uniti. Ora siamo nel 2025, e quell’occhio non solo non si è chiuso, ma ha affinato la vista, perfezionato l’udito e imparato a prevedere i nostri passi prima ancora che li compiamo.
Il Department of Homeland Security (DHS) e la sua gemella più spigolosa, l’Immigration and Customs Enforcement (ICE), stanno orchestrando un nuovo paradigma nella sorveglianza interna. Tecnologie che una volta orbitavano solo nei teatri di guerra sono state rimpatriate, riconvertite e lanciate nei cieli sopra Los Angeles, Chicago, El Paso. L’IA è il nuovo perimetro del confine, e il confine non è più una linea geografica: è ogni quartiere, ogni strada, ogni volto.
Nel fine settimana scorso, mentre migliaia di persone marciavano tra i palazzi della Downtown di Los Angeles, un drone fluttuava sopra di loro come un novello Panopticon. Le immagini pubblicate due giorni dopo sul profilo X (ex-Twitter) del DHS mostrano dettagli raccapriccianti: volti nitidi, traiettorie tracciate, momenti congelati da un occhio che non chiude mai le palpebre. Quelle riprese, secondo le fonti ufficiali, sarebbero state effettuate da un drone Predator. Sì, proprio quel Predator: nato per i raid in Afghanistan, oggi domestico come un cane da guardia, ma con meno empatia.
Palantir, la compagnia fondata da Peter Thiel, contribuisce con la sua piattaforma ILOS (Immigration Lifecycle Operating System). Un nome che suona come una distopia firmata Philip K. Dick. ILOS prende dati, li aggrega, li incrocia, li digerisce e ne partorisce profili comportamentali: dove sei stato, con chi, quanto spesso. Non è narrativa: è procedura operativa standard.
Ma ILOS non è solo un gigantesco Excel con superpoteri. È il cervello che alimenta il cosiddetto “Hurricane Score”, una sorta di pagella predittiva per immigrati non detenuti. Un algoritmo binario che decide se sei una “minaccia” basandosi sui comportamenti di altri che ti somigliano. Se non suona inquietante, rileggetelo.
L’ICE, nel frattempo, si dedica all’estrazione di dati dai dispositivi mobili. Non si tratta più solo di intercettare: si tratta di comprendere, prevedere, inferire. I software usati sono capaci di determinare “luoghi di interesse” incrociando foto, geolocalizzazioni, chat e cronologia di navigazione. Con un click si trasforma la tua vita digitale in una cartella investigativa.
Come se non bastasse, c’è anche la componente audio. I software di voice analytics trascrivono, traducono, classificano. Niente più barriere linguistiche per gli agenti federali: ogni frase detta in arabo, spagnolo, pashtu o mandarino diventa un frammento d’intelligence.
E naturalmente, c’è il volto. La biometria non è più roba da film di spionaggio. Le telecamere intelligenti identificano i partecipanti a una protesta, li incrociano con database criminali, li categorizzano. Ufficialmente, il riconoscimento facciale è usato per casi di sfruttamento minorile. Ufficiosamente, la tecnologia è lì. Pronta. Disponibile. Applicabile.
Le autorità federali difendono questi strumenti in nome dell’efficienza. “Migliorano la sicurezza pubblica,” dicono. Ma per molti, soprattutto per comunità già storicamente sorvegliate, è solo una nuova forma di oppressione ipertecnologica. “Sappiamo che le comunità di immigrati, in particolare nere e latine, subiscono una sorveglianza sproporzionata,” afferma Citlaly Mora della non-profit Just Futures Law. “Questo arsenale di tecnologie serve a un solo scopo: identificare e deportare.”
Nel frattempo, la percezione pubblica si contrae. I droni non hanno piloti visibili, né loghi chiari. Galleggiano sopra le teste come insetti industriali. “Con un elicottero sai chi c’è alla guida,” ha spiegato Grant Jordan, CEO della società SkySafe. “Con i droni, invece, la sorveglianza è ambigua. E quindi più inquietante.”
Ed è proprio nell’ambiguità che l’IA trova terreno fertile. La sua potenza è inversamente proporzionale alla trasparenza. E quando il potere è opaco, l’abuso non è un’eventualità: è una probabilità statistica.
Jay Stanley dell’ACLU insiste che accettare questi strumenti come “inevitabili” è il primo passo verso la normalizzazione della sorveglianza di massa. “Non possiamo fermare lo sviluppo tecnologico,” dice, “ma possiamo decidere come e dove deve essere usato. La comunità ha ancora voce.”
Il problema è che la voce, sotto i rotori dei droni, si fa flebile. E lo scroll di notizie sui social rende tutto temporaneo, volatile. Un video di protesta oggi, una nuova app domani. Intanto, le reti neurali imparano, migliorano, si addestrano con i dati che noi stessi offriamo.
L’AI non ha emozioni. Non ha bias morali. Ma viene addestrata dai nostri dati, riflette le nostre istituzioni, i nostri pregiudizi. E quando a gestirla è un’agenzia la cui missione è l’espulsione, il confine tra tecnologia e repressione diventa infinitamente sottile.
Dicono che “la tecnologia è neutrale.” Ma in mano a certi attori, anche un termometro può diventare un manganello.
Alla fine, la vera domanda non è se l’IA sorveglierà ogni nostro passo. Ma chi sorveglierà l’IA. E perché, in fondo, continuiamo a comportarci come se non fosse già troppo tardi.