Riconoscimento facciale: tecniche, sistema SARI e SARI RealTime

“Spazi urbani e percezione della sicurezza. Strategie di sostenibilità sociale e nuove narrazioni della sicurezza”, Quaderno della Rivista Trimestrale della Scuola di Perfezionamento per le Forze di Polizia – 2024

Il riconoscimento facciale rappresenta una delle tecnologie emergenti più discusse nell’ambito della sorveglianza e della sicurezza pubblica. Tale tecnologia consente l’identificazione automatica degli individui mediante l’analisi delle immagini digitali che raffigurano i loro volti. La tecnica, basata su algoritmi complessi di intelligenza artificiale e machine learning, ha trovato applicazione in molteplici contesti, tra cui il sistema di riconoscimento automatico delle immagini SARI Enterprise utilizzato dalla Polizia di Stato.

Il riconoscimento facciale si basa su un processo articolato in diverse fasi. La prima fase è l’acquisizione dell’immagine, che può avvenire tramite fotografie o registrazioni video. Tale acquisizione può essere interattiva, quando avviene con la cooperazione consapevole dell’individuo, o passiva, quando viene eseguita senza la consapevolezza del soggetto interessato. Successivamente, si passa all’individuazione del volto, ovvero alla separazione del volto dallo sfondo dell’immagine. Segue la fase di normalizzazione, durante la quale le variazioni presenti nelle regioni del volto dovute a diverse condizioni di illuminazione o angolazioni vengono attenuate. Tale processo può includere la conversione delle immagini ad una dimensione standard o l’allineamento delle distribuzioni dei colori.

La fase successiva è l’estrazione delle caratteristiche, in cui vengono recuperati gli elementi distintivi dell’immagine facciale. Questi elementi, noti come Eigenfaces o Eigenpictures, sono utilizzati per creare modelli matematici che rappresentano le caratteristiche uniche di un volto. Infine, si procede alla fase di classificazione, in cui l’immagine acquisita viene confrontata con un database di immagini per identificare o verificare l’identità del soggetto.

Il Sistema Automatico di Riconoscimento delle Immagini S.A.R.I. Enterprise. consente di effettuare ricerche nella banca dati AFIS (Automated Fingerprint Identification System) tramite l’inserimento di un’immagine fotografica di un soggetto ignoto. L’immagine viene elaborata da due algoritmi di riconoscimento facciale che producono un elenco di immagini ordinate secondo un grado di similarità. In termini operativi, dalla acquisizione dell’immagine fotografica di un soggetto ignoto, il sistema, in tempi brevissimi, propone all’operatore un elenco di foto segnaletiche di soggetti presenti nella banca dati in ordine di similarità, unitamente ad una percentuale di matching.

Oltre alla modalità di funzionamento tradizionale (ex post), il sistema SARI può operare in modalità Real Time. In particolare, il SARI Real-Time è composto da un sistema video in grado di analizzare in tempo reale i volti dei soggetti ripresi dalle telecamere installate in punti di osservazione mobili e confrontarli con foto segnaletiche di interesse investigativo estratte da AFIS. Il sistema, durante l’analisi dei flussi video, memorizzerà i volti sottoposti al controllo solo nel caso in cui avvenga un match di confronto con foto-segnaletiche inviando un alert agli operatori. In ogni caso, un operatore qualificato avrà l’obbligo di riscontrare ulteriormente quanto segnalato dal software.

Nonostante le potenzialità, l’uso di SARI Real Time solleva numerose preoccupazioni in merito alla precisione dei risultati e alla privacy degli individui. La tecnologia di riconoscimento facciale in tempo reale si basa su algoritmi che effettuano calcoli probabilistici per individuare corrispondenze tra le immagini. Tuttavia, tali operazioni sono sempre soggette a una certa percentuale di errore, con la possibilità di falsi positivi (identificazioni errate) e falsi negativi (mancate identificazioni).

Il Garante per la protezione dei dati personali ha, infatti, espresso diverse riserve sull’uso di SARI Real Time, evidenziando i rischi di sorveglianza di massa e le possibili violazioni della privacy. Il software, infatti, non è ancora operativo in quanto il Garante sta valutando l’impatto del sistema sulla protezione dei dati sensibili.

L’uso della tecnologia e dell’Intelligenza Artificiale, funzionale alle politiche di predictive policing, è al centro del dibattito normativo e giurisprudenziale sollevando importanti questioni soprattutto in relazione al bilanciamento tra esigenze di sicurezza pubblica e rispetto della tutela dei diritti fondamentali. La polizia predittiva si basa, invero, su una raccolta massiccia di dati personali, che devono essere gestiti in conformità con le normative sulla protezione dei dati, come il Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea. L’adozione di queste tecnologie deve essere, pertanto, accompagnata da un rigoroso quadro normativo che tuteli i diritti fondamentali e garantisca la trasparenza e l’accountability dei sistemi utilizzati, nonché da misure appropriate per mitigare i rischi associati alla privacy.

Rilevanti appaiono anche le questioni etiche legate al rischio di discriminazione e profilazione. Gli algoritmi di polizia predittiva possono, anche involontariamente, perpetuare bias esistenti nei dati storici, determinando una sorveglianza sproporzionata di determinate comunità. È essenziale, inoltre, che gli operatori umani mantengano il controllo e la responsabilità delle decisioni operative. In tale indirizzo il Regolamento sull’Intelligenza Artificiale (AI Act) Europea, mira a stabilire un quadro giuridico che assicuri la conformità etica e legale, promuovendo un utilizzo dell’IA che sia trasparente, equo e rispettoso dei diritti umani. Il testo pone particolare enfasi sulla gestione dei rischi, la trasparenza degli algoritmi e la responsabilità dei soggetti che sviluppano e utilizzano tecnologie IA, contribuendo così a prevenire i bias e consentendo di valutare e misurare le performance delle pubbliche amministrazioni. Basato su un presupposto di calcolo del rischio per i diritti fondamentali, il Regolamento differenzia gli usi della AI in base al livello di rischio: inaccettabile, alto, basso o minimo. In particolare, i sistemi di polizia predittiva e i sistemi di identificazione biometrica per il controllo sociale sono considerati tra gli utilizzi che possono comportare un rischio inaccettabile per i diritti fondamentali. Ne viene, pertanto, vietato l’uso per attività di predizione (come “real-time investigation” e “pre-crime practices” se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona), ma si consente l’impiego per ragioni di sicurezza nazionale e attività investigative post-crimine.

Tale regolamento mira a stabilire un quadro giuridico che assicuri la conformità etica e legale, promuovendo un utilizzo dell’IA che sia trasparente, equo e rispettoso dei diritti umani. Il regolamento pone particolare enfasi sulla gestione dei rischi, la trasparenza degli algoritmi e la responsabilità dei soggetti che sviluppano e utilizzano tecnologie IA, contribuendo così a prevenire i bias e consentendo di valutare e misurare le performance delle pubbliche amministrazioni.