Real time Artificial Intelligence news

Tag: ai sorveglianza

Olimpiadi di Parigi 2024: il dibattito sulla sorveglianza algoritmica

Alla luce dell’intensificarsi dei preparativi per le imminenti Olimpiadi di Parigi, l’integrazione dell’Intelligenza Artificiale nei sistemi di sorveglianza stradale in tempo reale ha acceso, in Francia e non solo, un acceso dibattito sulle libertà civili e le preoccupazioni per la sicurezza.

In base ai piani, avanzati algoritmi di Intelligenza Artificiale saranno dispiegati attraverso le telecamere CCTV in tutta Parigi, mirati a rilevare attività sospette come bagagli abbandonati e folle inaspettate. Mentre i i gruppi per i diritti civili esprimono preoccupazioni riguardo all’eventuale violazione delle libertà individuali, i sostenitori argomentano che tali misure siano cruciali per garantire la sicurezza pubblica durante eventi di rilievo.

Il quadro normativo che consente la video sorveglianaza algoritmica è contenuto nell’articolo 7 della Legge sui Giochi Olimpici, approvato dall’Assemblea Nazionale con 59 voti favorevoli e 14 contrari, che autorizza l’uso della cosiddetta videosorveglianza “intelligente” , basata su algoritmi per analizzare le immagini catturate da telecamere o droni, al fine di rilevare automaticamente azioni e azioni potenzialmente rischiose.

Secondo la formulazione dell’articolo, le immagini ottenute avranno il solo scopo di rilevare “in tempo reale eventi predeterminati idonei a manifestare o rivelare tali rischi e di segnalarli”, mentre il riconoscimento facciale non sembrerebbe autorizzato.

Tuttavia, lo scetticismo persiste tra coloro che sostengono che la videosorveglianza alimentata dall’AI, anche senza il riconoscimento facciale, costituisca una significativa minaccia alla privacy e all’autonomia personale per il rischio che tali tecnologie possano consentire una sorveglianza di massa, erodendo i diritti degli individui all’anonimato e alla libertà di movimento negli spazi pubblici.

L’introduzione di tale tecnologia rappresenta comunque una novità nel continente europeo. In una lettera aperta, 38 organizzazioni europee della società civile sostengono che l’uso generalizzato della videosorveglianza guidata da algoritmi presenta un rischio significativo per le libertà individuali e civili e viola il diritto internazionale sui diritti umani.

Mentre il governo francese naviga in un equilibrio delicato tra la sicurezza e le libertà civili, ancora una volta la questione mette in evidenza l’importanza delle considerazioni etiche nell’adozione dei sistemi di AI che toccano temi come la privacy e le libertà individuali, che stanno plasmando i discorsi pubblici in vista delle Olimpiadi di Parigi.

L’uso della tecnologia di sorveglianza automatizzata è un tema controverso, proprio per il rischio che l’integrazione dell’Intelligenza Artificiale possa rappresentare una nuova transizione nella sorveglianza di massa delle popolazioni civili. Questo perché l’uso di algoritmi nella videosorveglianza significa che il comportamento di chiunque venga filmato in uno spazio pubblico è costantemente analizzato e da qui al riconoscimento biometrico e facciale il passo è breve. Quello che è certo è che occorre trovare il giusto equilibrio tra i rischi per la sicurezza e la limitazione delle libertà civili.

Sorveglianza AI nella metropolitana di Londra: cosa rivela il nuovo studio di Wired

Migliaia di persone che utilizzano la metropolitana di Londra sono state sorvegliate da un software di Intelligenza Artificiale (AI) progettato per individuare comportamenti criminali o situazioni pericolose. È quanto riportato da una inchiesta di Wired secondo cui il software di riconoscimento automatico è stato combinato con le immagini delle telecamere a circuito chiuso per poter rilevare comportamenti aggressivi, l’eventuale presenza di persone armate all’interno della metro, passeggeri che saltano i tornelli per non pagare il biglietto o, in casi più estremi, eventuali cadute sui binari.

Dal 2022 fino alla fine del 2023, il Transport for London (TfL), la società che gestisce la metropolitana e i bus della città, ha testato 11 algoritmi per monitorare le persone che passano dalla stazione della metropolitana di Willesden Green, nel nord-ovest della città. Si tratta del primo test in cui sono state combinate le immagini video in tempo reale con tool di Intelligenza Artificiale per generare avvisi inviati al personale delle metropolitana addetto ai controlli. Durante la fase di test sono stati emessi più di 44.000 avvisi, di cui 19.000 consegnati al personale della stazione in tempo reale.

I documenti di cui Wired riferisce di essere in possesso dettagliano come TfL abbia utilizzato una vasta gamma di algoritmi di visione artificiale per monitorare il comportamento delle persone nella stazione, concentrandosi non solo su temi legati alla sicurezza, ma anche su possibili comportamenti criminali e antisociali.

Gli stessi documenti evidenzierebbero poi anche errori del sistema durante il test, come l’errata segnalazione dei bambini accompagnati dai genitori come evasori del biglietto.

Sempre secondo Wired, gli esperti in materia di privacy che hanno esaminato i documenti avrebbero messo in dubbio l’accuratezza degli algoritmi di riconoscimento degli oggetti e avvertito che sistemi di sorveglianza simili potrebbero facilmente essere ampliati in futuro per includere sistemi di riconoscimento facciale.

Anche se TfL non ha finora risposto alla richiesta di commenti da parte di Wired, sembrerebbe che il test abbia generato preoccupazioni riguardo alla governance e alla trasparenza nell’uso delle tecnologie di controllo, sorveglianza e di riconoscimento facciale supportate dall’AI, per le quali sarebbe necessario comunque un adeguato supporto normativo che sia in grado di stabilire i limiti entro i quali questi tool possono essere utilizzati.

Da questo punto di vista infatti è fondamentale bilanciare attentamente i rischi e i benefici dell’impiego dei tool di Intelligenza Artificiale nei sistemi di controllo e sorveglianza perché, se da un lato possono contribuire alla sicurezza dei cittadini prevenendo atti criminali o terroristici, dall’altro è imprescindibile garantire la tutela della privacy individuale e un uso etico dei dati dei cittadini.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie