La tecnologia di riconoscimento facciale in tempo reale (LFR) sta diventando rapidamente un elemento fondamentale della polizia moderna, scansionando milioni di volti negli spazi pubblici. Mentre le autorità affermano spesso che le garanzie "human-in-the-loop" (con supervisione umana) prevengono gli abusi, un numero crescente di ricerche suggerisce una realtà più complessa: la tecnologia stessa sta riconfigurando sottilmente la natura stessa del sospetto.
Il Passaggio al Sospetto Algoritmico
Tradizionalmente, il sospetto della polizia si basava sulla discrezione e sull'osservazione dell'agente. Un poliziotto poteva fermare qualcuno in base al suo comportamento o a informazioni specifiche. L'LFR cambia radicalmente questa dinamica. Invece di avviare un'interazione basata sull'intuizione o sulle prove, gli agenti diventano intermediari per la decisione di un computer.
Le ricerche indicano che quando un algoritmo segnala un individuo, crea una "presunzione di intervento". Anche se gli agenti sono teoricamente liberi di ignorare una corrispondenza, la pressione psicologica a fidarsi della macchina – nota come bias dell'automazione – è potente. La tecnologia non si limita ad assistere; "innesca" (prime) l'agente a vedere l'individuo segnalato come sospetto prima ancora che avvenga una valutazione umana.
Sospetto Burocratico e Watchlist
Una preoccupazione critica risiede nel modo in cui vengono costruite le "watchlist" (liste di sorveglianza). A differenza delle indagini mirate in cui si cerca un sospetto specifico, le watchlist LFR si basano spesso su criteri ampi e standardizzati. Questo crea una forma di "sospetto burocratico" in cui gli individui vengono presi di mira non per un comportamento immediato, ma perché corrispondono a un profilo dati.
"La tecnologia svolge un ruolo di inquadramento e innesco nel modo in cui viene generato il sospetto, trasformando potenzialmente le decisioni guidate dall'uomo in decisioni di fatto automatizzate."
Queste liste possono includere una vasta gamma di individui, dai criminali gravi a coloro che sono semplicemente "di interesse" o persino persone vulnerabili. La mancanza di trasparenza nella compilazione di queste liste significa che lo "sguardo della polizia" è strutturalmente diretto verso determinati gruppi, spesso rafforzando i pregiudizi esistenti.
L'Erosione del "Ragionevole Sospetto"
In molti sistemi legali, la polizia ha bisogno di un "ragionevole sospetto" per fermare e detenere qualcuno. Tuttavia, la semplice esistenza di una corrispondenza algoritmica viene sempre più trattata come motivo sufficiente per l'intervento. Questo è problematico quando i dati sottostanti – come le immagini segnaletiche di individui non condannati – possono essere conservati illegalmente o senza una chiara giustificazione.
Mentre la tecnologia LFR continua a diffondersi, è fondamentale esaminare non solo la sua accuratezza tecnica, ma anche il suo impatto socio-tecnico. Dobbiamo chiederci se siamo a nostro agio con un sistema in cui il sospetto non è più un giudizio umano, ma una query di database.