Telecamere intelligenti per monitorare gli spazi pubblici: opportunità e rischi - Agenda Digitale

sorveglianza con AI

Telecamere intelligenti per monitorare gli spazi pubblici: opportunità e rischi

I progressi dell’IA hanno trasformato i tradizionali sistemi di telecamere passive in strumenti di sicurezza avanzati, capaci di individuare situazioni anomale o pericolose, ma anche di mettere a rischio diritti umani e privacy. Prima che l’uso diventi pervasivo, serve una solida legislazione a livello internazionale

22 Giu 2021
Elisa Ricci

Unità di ricerca “Deep Visual Learning” del centro Digital Society, Fondazione Bruno Kessler.

Luca Zanella

Unità di ricerca “Deep Visual Learning” del centro Digital Society, Fondazione Bruno Kessler

Grazie alla distribuzione capillare di telecamere – a livello globale, ce ne sono oltre 770 milioni in uso – e alla maturità tecnologica raggiunta per merito dell’intelligenza artificiale (IA), i moderni sistemi di videosorveglianza sono in grado di migliorare in modo significativo la sicurezza dei luoghi e la vita delle persone.

Il riconoscimento facciale per le indagini di polizia: com’è usato e i suoi limiti

Videosorveglianza e intelligenza artificiale

Con il termine videosorveglianza tradizionalmente si intende il monitoraggio di specifiche aree, eventi, attività o persone attraverso l’utilizzo di dispositivi elettronici o di sistemi CCTV. Se da un lato i sistemi di videosorveglianza sono impiegati già da molto tempo per il monitoraggio di spazi pubblici e privati, fino a una decina di anni fa la loro applicazione su larga scala era limitata da numerosi fattori, come la scarsa affidabilità in scenari complessi (ad esempio, scene affollate, scarse condizioni di illuminazione) o la necessità di un costante intervento umano a causa dell’elevato numero di falsi allarmi generati automaticamente.

WHITEPAPER
Certificazioni GDPR: tutti i vantaggi per le organizzazioni che vi aderiscono
Legal
Privacy

Più recentemente, i progressi tecnologici nell’ambito dell’intelligenza artificiale e del machine learning hanno rivoluzionato l’intero settore della sicurezza, consentendo lo sviluppo di algoritmi che permettono di analizzare flussi video in tempo reale e di identificare situazioni anomale o potenzialmente pericolose, anche prima che esse stesse si verifichino. A questo progresso software si è associata un’evoluzione hardware senza precedenti, rappresentata da telecamere a risoluzione più elevata, migliori sensori e unità di elaborazione più efficienti. Il risultato è che, ad oggi, disponiamo di telecamere e sensori intelligenti, dotati cioè di software in grado di individuare e tracciare le persone e gli oggetti presenti nella scena, di identificare le loro caratteristiche principali, di analizzarne i comportamenti e di individuare con grande accuratezza eventi anomali o di pericolo.

Le opportunità

La recente emergenza sanitaria globale legata al Covid-19 ha permesso di comprendere la potenza e la duttilità di un sistema di monitoraggio diffuso basato su telecamere intelligenti. Con l’introduzione dei vaccini, infatti, l’esigenza di un progressivo ritorno alla “normalità” ha spinto numerosi governi e amministrazioni locali ad avvalersi di tecnologie di IA per l’analisi di flussi video raccolti da sistemi CCTV al fine di monitorare in tempo reale eventuali violazioni dei protocolli di sicurezza Covid. Ad esempio, la città di Cannes ha utilizzato tecnologie di intelligenza artificiale per verificare l’aderenza alle misure di sicurezza legate all’uso di mascherine. L’aeroporto di Genova si è avvalso di soluzioni basate su IA per valutare il rispetto del distanziamento sociale. Telecamere termiche sono state impiegate in numerose città italiane ed estere, sia in ambienti pubblici che privati, per monitorare flussi di persone rilevandone la temperatura corporea e garantendo quindi l’individuazione di situazioni di potenziale rischio sanitario.

Indubbiamente, i sistemi di sicurezza basati su IA e le telecamere intelligenti hanno un grandissimo potenziale per l’identificazione di crimini e minacce terroristiche. Grazie a nuovissime tecnologie di intelligenza artificiale e all’utilizzo di hardware di ultima generazione, è infatti possibile monitorare in tempo reale anche spazi molto ampi, analizzando flussi video su larga scala in modo da fornire non solo informazioni su crimini già commessi ma anche alert su situazioni di potenziale rischio.

Intelligenza Artificiale, dove va il quadro giuridico internazionale e i passi necessari

Il progetto europeo Protector

In questo contesto si colloca il progetto europeo Protector, di cui la Fondazione Bruno Kessler è leader tecnologico. Il Progetto è coordinato da Saher Europe e supportato dal G20 Inter Faith Forum e da United Nations Interregional Crime and Justice Research Institute (UNICRI). Il progetto si focalizza sulla protezione dei luoghi di culto, riconoscendo che gli attacchi a tali luoghi rappresentano una seria preoccupazione per la sicurezza in tutto il mondo, poiché estremisti e terroristi che promuovono odio e ideologie violente continuano a commettere crimini in tali luoghi con allarmante regolarità. Protector si propone come obiettivo prioritario di migliorare la protezione dei luoghi di culto facilitando le attività delle forze dell’ordine attraverso lo sviluppo di nuove tecnologie di IA integrate in un’unica piattaforma che raccoglie informazioni ottenute da flussi video e da altre sorgenti di dati (ad esempio, social media).

Un ulteriore esempio relativo alle opportunità offerte dall’intelligenza artificiale nell’ambito del monitoraggio è rappresentato dall’applicazione di telecamere intelligenti in impianti di produzione e industrie manifatturiere. In questo contesto, le tecnologie di IA permettono di affrontare i problemi legati alla sicurezza sul lavoro. Il potenziale dei sistemi basati su IA è molto vasto, in quanto essi sono in grado di individuare problemi e situazioni a rischio legati alla violazione delle norme di sicurezza che operatori umani potrebbero non rilevare. Inoltre, i sistemi automatici consentono non solo di segnalare eventi pericolosi ma persino di prevederli. Non sorprende quindi che negli Stati Uniti, stando a un recente report del National Safety Council, il 53% dei lavoratori ha segnalato come la propria azienda abbia impiegato nuove tecnologie software, wearable o apps per la sicurezza sul luogo di lavoro.

Quali rischi?

Se da un lato appaiono evidenti i vantaggi dei sistemi di videosorveglianza intelligenti per la sicurezza e la salute dei cittadini, è altrettanto vero che il loro impiego su larga scala desta nell’opinione pubblica numerose perplessità, vista la maturità tecnologica raggiunta.

Esempi paradigmatici riguardano i cosiddetti sistemi di riconoscimento facciale. Lo studio pionieristico di Joy Buolamwini del MIT ha attirato per la prima volta l’attenzione del pubblico sul problema del “bias” nei sistemi di analisi dei volti, dimostrando che le tecnologie commerciale utilizzate presentano dei tassi di errore significativamente più alti nei casi di donne di colore rispetto agli uomini bianchi. Similmente, una recente analisi dell’ACLU ha contribuito ad aumentare la consapevolezza dei politici al problema mostrando che la tecnologia di riconoscimento facciale di Amazon ha erroneamente associato 28 membri del Congresso, prevalentemente afroamericani e latini, con persone presenti in un database di soggetti in arresto.

Ha fatto scalpore il caso della startup Clearview AI e della sua tecnologia di riconoscimento facciale, che utilizza un database di oltre tre miliardi di immagini ottenute dall’azienda facendo scraping da milioni di siti web come Facebook, YouTube e molti altri. Se da un lato, stando a quanto dichiarato dall’azienda, oltre 600 forze dell’ordine a livello globale si sono avvalse di questa tecnologia nell’ultimo anno per identificare crimini, il database di Clearview ha suscitato preoccupazioni relativamente a possibili situazioni di violazione della privacy. Per questo, diverse organizzazioni europee per i diritti digitali hanno annunciato azioni legali contro la società.

In una recente intervista a BBC Panorama, il presidente di Microsoft Brad Smith ha evocato George Orwell e il suo famoso romanzo “1984” (Nineteen Eighty-Four). In 1984, Orwell ritraeva una società futuristica distopica, denominata Oceania, in cui i cittadini sono costantemente sorvegliati dal Partito, la forza dominante della nazione, attraverso l’uso di telecamere e microfoni nascosti. Smith ha dichiarato che la società immaginata da Orwell potrebbe non essere solo frutto di fantasia e che “la vita diventerà come 1984 di George Orwell” entro il 2024 se i legislatori non proteggeranno le persone dai pericoli dell’intelligenza artificiale. In questo contesto si pone il regolamento sull’Intelligenza Artificiale pubblicato recentemente dalla Commissione Europea. L’intento è quello di fornire le regole per favorire uno sviluppo delle tecnologie di intelligenza artificiale quanto più rispettoso dei diritti fondamentali dei cittadini. Tra le condizioni indicate nel regolamento c’è ad esempio il divieto dell’utilizzo di alcuni sistemi, come quelli di social scoring utilizzati in Cina, e una regolamentazione più stringente di quella attuale per le tecnologie di identificazione biometrica. Inoltre, la spinta è quella di disincentivare i cosiddetti sistemi di IA a “black-box”, ossia a “scatola nera”, e di imporre alle aziende obblighi di trasparenza verso gli utenti sul funzionamento dei sistemi di IA.

Conclusioni

L’utilizzo su larga scala di telecamere intelligenti rappresenta indubbiamente un’incredibile opportunità. Se da un lato risulta difficile immaginare con precisione quali sfide e quali problemi dovranno essere affrontati nei prossimi anni, di sicuro dobbiamo aspettarci che l’IA avrà un ruolo sempre più cruciale nel fornire servizi e tecnologie fondamentali per la salute e la sicurezza dei cittadini. Nel frattempo, prima che l’utilizzo di queste tecnologie diventi pervasivo, è necessario sviluppare una solida legislazione a livello internazionale per proteggere i diritti umani, la privacy e la sicurezza dei cittadini, proseguendo nella direzione indicata dal regolamento sull’intelligenza artificiale della Commissione Europea.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4