Rapida, silenziosa, inesorabile. L’intelligenza artificiale e la robotica stanno entrando nella storia della sicurezza pubblica europea non come un aggiornamento tecnologico, ma come una mutazione genetica del concetto stesso di crimine e di controllo. Il rapporto di 48 pagine pubblicato dall’Innovation Lab di Europol, significativamente intitolato “The Unmanned Future(s)”, non è una previsione nel senso classico del termine, ma un esercizio di preveggenza strategica. Tradotto in linguaggio non diplomatico significa che chi oggi guida istituzioni, aziende e forze dell’ordine farebbe bene a smettere di discutere se tutto questo accadrà e iniziare a chiedersi cosa succede quando accade davvero.
Polizia e criminalità, storicamente, hanno sempre adottato la tecnologia con un leggero sfasamento temporale. Oggi quello sfasamento si sta chiudendo. Anzi, in alcuni casi si è già invertito. L’idea che i robot diventino sia strumenti operativi per le forze dell’ordine sia armi nelle mani di criminali e terroristi non è fantascienza, è semplice analisi dei costi e dei benefici. Se una tecnologia è economica, scalabile e difficile da attribuire, qualcuno la userà per violare la legge prima che lo Stato riesca a regolamentarla. Questa non è una teoria, è storia applicata.
Nel quadro tracciato da Europol, il 2035 non appare come un futuro distopico alla Blade Runner, ma come una normalità ipertecnologica leggermente sfuggita di mano. Robot domestici, droni commerciali, veicoli autonomi e sistemi di sorveglianza basati su AI diventano onnipresenti. Ospedali, case di riposo, scuole e fabbriche sono saturi di macchine intelligenti connesse alla rete. A quel punto la domanda non è se verranno abusate, ma da chi e con quale livello di sofisticazione. La criminalità organizzata, come sempre, non si farà pregare.
Scenario interessante, e non privo di un certo cinismo sociologico, è quello della reazione umana all’automazione. Europol ipotizza risentimento sociale, proteste populiste, atti di vandalismo contro robot e persino rivolte in nome del “mettere le persone al primo posto”. Il concetto di bot-bashing sembra una provocazione, ma basta ricordare le polemiche già esplose intorno ai robot-cani usati dalla polizia per capire che il terreno emotivo è fertile. Colpire un robot è vandalismo o è una nuova forma di violenza simbolica. Domanda apparentemente filosofica, ma con implicazioni operative enormi per chi deve mantenere l’ordine pubblico.
Dal lato oscuro della forza, il rapporto si fa più concreto. I robot di assistenza, progettati per aiutare anziani e persone fragili, diventano potenziali cavalli di Troia digitali. Sensori, microfoni, videocamere e accessi remoti possono essere sfruttati per spiare famiglie, raccogliere dati sensibili, manipolare comportamenti e nei casi più inquietanti facilitare grooming e abusi. Non serve immaginare un genio del male. Basta un attacco informatico ben confezionato e una supply chain poco protetta.
Autonomi e droni rappresentano un capitolo ancora più delicato. Europol evoca sciami di droni usati come armi fisiche, strumenti di sorveglianza criminale o piattaforme per il contrabbando. L’idea di droni recuperati da teatri di guerra come l’Ucraina e riadattati per scopi terroristici non è peregrina. Le tecnologie dual use non hanno morale, hanno solo specifiche tecniche. Se possono volare, trasportare e colpire, qualcuno prima o poi lo farà.
Quando il rapporto entra nel territorio quasi teorico della “interrogazione dei robot”, il sorriso ironico viene spontaneo. Come si interroga un sistema autonomo che ha preso una decisione sbagliata. Dove finisce l’errore accidentale e dove inizia il comportamento intenzionale. Le difficoltà già evidenti negli incidenti con veicoli a guida autonoma sono solo l’antipasto. La responsabilità si dissolve tra produttori, sviluppatori, utenti e algoritmi che nessuno comprende davvero fino in fondo.
Le contromisure immaginate, come armi per congelare robot ribelli o reti esplosive per catturare droni, sembrano uscite da un romanzo cyberpunk. Ma il punto non è la plausibilità degli strumenti, è il messaggio sottostante. Anche sequestrati, i robot restano un rischio. Possono registrare, trasmettere, sabotare o fuggire. Portare una macchina intelligente dentro una centrale di polizia senza un’architettura di sicurezza adeguata equivale a invitare un intruso a cena e lasciargli le chiavi di casa.
Europol, con una prudenza quasi istituzionale, sottolinea di non voler predire il futuro ma di prepararsi a scenari plausibili. È una distinzione semantica elegante, ma il senso è chiaro. Se oggi un agente fatica a usare un drone, domani non potrà competere con un avversario che lo usa in modo professionale. La criminalità non soffre di vincoli burocratici, di gare pubbliche o di comitati etici. Sceglie la tecnologia che funziona e la usa subito.
I segnali, del resto, sono già visibili. Droni usati per introdurre droga nelle carceri, veicoli autonomi impiegati per il contrabbando, mercati online dove piloti di droni offrono servizi a organizzazioni criminali. Il famoso sottomarino dei narcos equipaggiato con Starlink non è folklore tecnologico, è un case study. La trasformazione dalla polizia bidimensionale a quella tridimensionale, come la definisce il rapporto, non è un vezzo terminologico. È un cambio di paradigma operativo.
Non tutti gli esperti condividono l’idea di una diffusione così rapida e capillare. Alcuni roboticisti sottolineano come l’adozione dipenda da costi, capacità produttive e accettazione sociale. Previsioni sul 2035, in un settore che cambia ogni sei mesi, sono inevitabilmente fragili. Tuttavia, anche i più scettici concordano su un punto fondamentale. I criminali useranno qualsiasi tecnologia disponibile. Sempre. Investire in formazione, AI, robotica e cybersecurity per le forze dell’ordine non è un lusso futuristico, è una necessità immediata.
La parte più interessante, e forse più inquietante, è quella che il rapporto tratta solo marginalmente. La responsabilità e l’abuso di potere da parte delle stesse forze dell’ordine. Parlare di robot che violano la privacy se hackerati dai criminali è doveroso. Parlare di robot usati dalla polizia per sorvegliare, profilare e discriminare dovrebbe essere altrettanto centrale. In un contesto globale segnato da derive autoritarie e casi documentati di sorveglianza abusiva, il rischio che le vulnerabilità dei sistemi robotici vengano sfruttate dallo Stato è tutt’altro che teorico.
Qui la narrazione cambia tono. Il vero problema non è solo se i terroristi useranno droni armati, ma se le istituzioni democratiche sapranno resistere alla tentazione di usare le stesse tecnologie senza trasparenza e controllo. L’AI applicata alla sicurezza promette efficienza, ma spesso consegna opacità. Algoritmi che decidono chi è sospetto, robot che osservano senza essere osservati, sistemi che accumulano dati senza un chiaro perimetro legale. Il confine tra protezione e sorveglianza di massa è sottile, e la storia insegna che viene superato con sorprendente facilità.
In definitiva, parlare di ai e robotica nella criminalità non significa discutere di gadget futuristici, ma di potere. Chi controlla le macchine controlla lo spazio fisico e quello digitale. Europol ha fatto bene a lanciare il sasso nello stagno, anche a costo di sembrare eccessivamente visionaria. Il vero errore sarebbe liquidare queste riflessioni come fantascienza. La tecnologia non chiede il permesso. Arriva, si diffonde e poi costringe tutti a inseguirla. Chi governa oggi dovrebbe ricordarlo, prima che il 2035 smetta di essere una data ipotetica e diventi una realtà con cui fare i conti ogni mattina.
Report: https://www.europol.europa.eu/publication-events/main-reports/unmanned-futures