Gli USA usano sempre di più il riconoscimento facciale nella sorveglianza pubblica

La mattina di domenica 8 giugno 2025, a Los Angeles, è difficile distinguere la nube di gas lacrimogeno dal fumo degli autoveicoli andati a fuoco. Per i boulevard della città, una foschia grigia opacizza il continuo incrociarsi delle bandiere nazionali di USA e Messico, che sventolano su una folla di decine di migliaia di statunitensi in protesta contro le operazioni di deportazione – veri e propri raid su larga scala – condotte dalla Immigration and Customs Enforcement (ICE). All’improvviso, a metà strada tra Spring Street e Broadway, fra l’esplosione di una granata stordente e un martellante rombo di tamburo, una voce dal cielo annuncia: «Vi ho ripreso tutti. Verrò a casa vostra».

Quell’avvertimento proviene da un elicottero del Dipartimento di Polizia di Los Angeles (LAPD). In linea con la strategia del collect it all (“registrali tutti”), il caso californiano è emblema del paradigma securitario che ha fatto della  sorveglianza il fine, e non più un mezzo, della giustizia statunitense.

I sistemi di riconoscimento facciale (Face Detection and Recognition Technologies, FDRTs), sebbene avanzati, portano con sé bias radicati, con conseguenti errori giudiziari e violazioni di diritti costituzionali. In più, vuoti mormativi e la mancanza di accountability favoriscono strutture di potere diseguali, a scapito delle categorie sociali più marginalizzate e vulnerabili.

Ringo Chiu/AFP via Getty Images

FDTRs: cosa sono e come funzionano

Una macchina “vede” un’immagine come una griglia di valori di pixel, cioè righe e colonne di numeri che indicano l’intensità di colore e luminosità. Per identificare e poi riconoscere un volto, un algoritmo di computer vision analizza questa griglia alla ricerca di pattern specifici che corrispondono alle caratteristiche facciali, procedendo per livelli crescenti di complessità: il primo riconosce le linee, il secondo naso, orecchie ed occhi, e così via. è un processo di apprendimento in divenire: il modello impara a partire dall’analisi dei dati provenienti da archivi digitali (dataset) di immagini. Correggendosi continuamente, affina la precisione.

Le FDRTs, nello specifico, si basano su processi distinti ma complementari: la face detection e la facial recognition. A partire da un’immagine o un video, la prima identifica semplicemente la presenza di un volto umano, mentre l’altra lo confronta con l’immagine di un altro volto già presente in sistema, per stimarne la probabilità che si tratti della stessa persona. In sostanza, la face detection risponde alla domanda “C’è un volto qui?”, la facial recognition a “Chi è (probabilmente) questa persona?”.

Negli USA, un adulto su due fa parte di una rete di riconoscimento facciale delle forze dell’ordine.

Darren Makowichuk/Calgary Sun/QMI Agency

Bias umani, errori tecnologici

Nonostante i progressi tecnologici, le FDRTs presentano ancora errori non solo dovuti all’apprendimento automatico, ma anche a due fattori correggibili e interconnessi: dataset sbilanciati, spesso composti principalmente da volti bianchi, maschili e adulti, e programmatori – in gran parte uomini caucasici – i cui bias consci e inconsci influenzano il codice.

Fino a un paio di anni fa, i software della Nikon segnalavano erroneamente che le persone asiatiche avevano gli occhi chiusi quando in realtà erano aperti, perché la forma più affusolata differiva dai tratti tipicamente caucasici. A non riconoscere nemmeno che ci fossero degli occhi erano, all’epoca, le macchine a guida automatica. Uno studio del King’s College di Londra, di poco successivo, aveva analizzato più di 8.000 immagini per testare 8 sistemi di riconoscimento pedoni: la precisione nel rilevare adulti risultava quasi 20 % superiore a quella per i bambini, e quella di persone con pelle chiara era superiore di circa 7,5 % rispetto a quelli di carnagione più scura.

Sono lontani i tempi in cui il Gender Shades Project del MIT Media Lab, nel 2018, aveva dimostrato che i maggiori algoritmi commerciali presentavano errori fino al 35 % in più per donne nere rispetto a uomini bianchi, mentre nel 2019 un rapporto del NIST (National Institute of Standards and Technology) aveva rilevato errori fino a 100 volte maggiori nel riconoscimento di visi neri e asiatici rispetto a quelli bianchi. Oggi, i recenti studi mostrano che i migliori sistemi hanno raggiunto un tasso di falsi negativi dello 0,49% per donne nere e dello 0,85% per uomini bianchi, con una precisione complessiva oltre il 99%.

Sembrerebbe una buona notizia, ma continuano a verificarsi falsi positivi, con conseguenti arresti ingiustificati, processi viziati e incarcerazioni erronee. Le scelte su come classificare caratteristiche demografiche e fenotipiche resta un processo politicizzato, e categorie come “etnia” e “genere” sono culturalmente cariche, instabili e contestate. Ma soprattutto, tecnologie meno aggiornate possono rimanere in mercato, minando Il diritto ad uguale protezione e non discriminazione sancito dal Sesto Emendamento.

Come ha riportato il giornalista tecnologico Dhruv Mehrota: «Nel mondo della polizia, in cui le poste in gioco sono alte, i produttori spesso ricevono un lasciapassare». Tradotto: riguardo agli standard di performance, a livello federale le FDRTs sono meno normate dei tostapane.

Steffi Loos/Getty Images

Regole instabili e disomogenee

«Pur mantenendo la riduzione della criminalità come priorità, la nostra visione va oltre i tradizionali concetti di polizia» si apre il Data-Informed, Community-Focused Policing del Dipartimento di Polizia di Los Angeles. Il documento presenta alla cittadinanza il nuovo paradigma della «polizia basata sui dati». Un approccio che promette «coinvolgimento comunitario» e «prevenzione del crimine» mediante una sorveglianza sistemica ma «allocata in modo mirato».

Sostanzialmente, le persone più facilmente soggette ad errori da parte della macchina sono anche quelle che vengo più spesso, e miratamente, sorvegliate, come afferma la Stop LAPD Spying Coalition, un ente comunitario locale che si batte per «smantellare le massicce pratiche di sorveglianza, spionaggio e repressione del LAPD».

In virtù dell’assenza di una normativa federale univoca, gli estremi di Los Angeles si confrontano con realtà che hanno seguito linee diametralmente opposte.

Alcune città hanno optato per la linea dura. Come San Francisco, che con l’ordinanza Stop Secret Surveillance dal 2019 vieta il riconoscimento facciale e resiste tuttora nonostante i ripetuti tentativi, nel 2021 e nel 2024, di reintrodurre l’uso della tecnologia in “casi gravi” per motivi di sicurezza pubblica.

Più prudente è la strategia di Brookline, in Massachusetts, dove vige una moratoria temporanea in attesa di una normativa statale più chiara.

Il caso più comune rimane comunque quello del vuoto normativo, che spesso vale come “via libera”. A New Orleans, la polizia usa le FDRTs in tempo reale tramite Project NOLA, una rete di 200 telecamere gestita da una ONG senza base legale chiara, ed ora il consiglio comunale sta valutando una legalizzazione retroattiva.

Anche laddove vengono posti obblighi di trasparenza o restrizioni in base al contesto d’uso, la situazione rimane opaca. Spostandoci a New York, dove la polizia è autorizzata a utilizzare il riconoscimento biometrico previa stesura di report informativi, non esistono sanzioni predefinite in caso di omissioni o abusi.

Viene da chiedersi: chi controlla il controllore?

TIMOTHY A. CLARY/AFP via Getty Images

Gli intrecci fra pubblico e privato

Il California Privacy Rights Act (CPRA), garantisce ai cittadini il diritto di accesso, portabilità e cancellazione dei dati biometrici raccolti da aziende private, ma queste tutele non si estendono all’uso del riconoscimento facciale da parte della polizia o di altre agenzie pubbliche. La Stato californiano non è l’unico che ha sviluppato una diversa regolamentazione tra settore privato e pubblico: spostandoci in Illinois, il Biometric Information Privacy Act (BIPA) si pone sulla stessa linea.

Questo significa che i cittadini di Los Angeles possono proteggere i propri dati quando usati da società come Amazon o Facebook, ma restano privi di tutela quando quegli stessi dati vengono impiegati dalle forze dell’ordine. Spesso, infatti, le autorità ottengono i dati biometrici proprio da queste aziende, aggirando così le garanzie previste per la privacy commerciale.

Diverse ma ugualmente opache sono le dinamiche che interessano la piattaforma Clearview AI. Nel 2020, un’inchiesta del New York Times rivelò come avesse raccolto oltre 3 miliardi di immagini da social media per creare un database di volti. Dopo lo scandalo, si è orientata esclusivamente verso il mercato della sorveglianza pubblica, offrendo un sistema di 30 miliardi di immagini a oltre 600 agenzie di polizia negli Stati Uniti.

A Portland, invece – dove è stato esteso il divieto sulle FDRTs alle aziende private che operano in luoghi aperti al pubblico, come i centri commerciali – nel 2022 Amazon ha fatto pressione contro le restrizioni, sostenendo che ostacolano la prevenzione dei furti. La normativa è rimasta intatta, ma un riesame è previsto per il 2025.

Per l’American Civil Liberties Union, queste dinamiche sono alla base di criticità nei processi giudiziari. Quando la polizia utilizza il riconoscimento biometrico per identificare un sospetto, spesso non rivela in tribunale né l’uso dello strumento né i suoi margini di errore, e la verifica giudiziaria può risultare impossibile perchè alcune aziende si rifiutano di divulgare i propri algoritmi per motivi di proprietà intellettuale. Un vero e proprio «ostacolo il diritto alla difesa, in aperta violazione del Sesto Emendamento»: vacilla la retorica per la quale se si è innocenti non si ha nulla da temere.

Jim Vondruska/Getty Images

Raggiri alle leggi locali e discrezionalità federale

Nel 2024 il mercato globale del riconoscimento facciale valeva 8,09 miliardi di USD e nel 2025 raggiungerà 9,3 miliardi USD, con una crescita media annua del 14,93% fino al 2034. I nostri volti sono stati capitalizzati quali beni di consumo.

Eppure, non hanno smesso di appartenerci. L’American Bar Association richiama il Quarto Emendamento per denunciare l’abuso della sorveglianza biometrica come «possibile sequestro irragionevole».. Il riconoscimento facciale da videocamere pubbliche o private permette un monitoraggio continuo senza mandato giudiziario, configurando una «perquisizione virtuale permanente», soprattutto se usato in tempo reale.

Il meccanismo è favorito dall’assenza di uno standard comune, che permette di eludere quelle leggi cittadine o provvedimenti statali che limiterebbero l’uso delle FDRTs. Così, la polizia di Boston, nonostante il divieto municipale, da anni aggira il provvedimento accedendo ai dati della polizia statale del Massachusetts, che non è soggetta alle restrizioni locali.

Ancora più arbitrario è l’operato di agenzie federali come l’FBI e l’ICE, che in assenza di vincoli legislativi federali rispondono direttamente a quell’ideale di Stato di polizia che da tempo gli USA cavalcano.

Jason Armond / Los Angeles Times

Make America safe again

Negli USA, un diffuso impianto normativo vago e discrezionale favorisce l’arbitrio repressivo. Se in Tennessee si ostruisce un marciapiede si rischia fino a un anno di carcere, mentre in Florida l’accusa di «rivolta» può scattare anche solo per la presenza di un «rischio imminente» di danni. In Iowa, chi investe un manifestante che blocca la strada durante una protesta illegale, se agisce con «dovuta accortezza», non può essere citato in sede civile.

Concetti vaghi come «rivolta», «dovuta accortezza» o «rischio imminente» lasciano spazio a interpretazioni più politiche che giuridiche, coperte dalla retorica secondo cui lo Stato agisce sempre per il bene collettivo. Quello che però non viene esplicitato è quali categorie sociali vengano escluse dal concetto di popolo.

In assenza di meccanismi di accountability per l’uso del riconoscimento facciale, come denunciato dalla Electronic Frontier Foundation (EFF), le persone temono ad esercitare liberamente la propria libertà di parola e di associazione – principio cardine del Primo Emendamento – per paura di ritorsioni a causa della propria ideologia politica.

“REMEMBER, No Masks!”, ha più volte tuonato Donald Trump sui social, in relazione ai recenti moti di protesta. Lo ha fatto con i toni paternalistici di un padre che vuole insegnare al figlio che, nella vita, bisogna assumersi la responsabilità delle azioni che si compiono, se si sostengono sinceramente gli ideali che le motivano.

Quando però mancano sanzioni concrete in caso di omissioni o abusi – ribatte l’EFF – mascherarsi diventa «legittima difesa» da un esercizio repressivo e anticostituzionale del potere. Dal quale, sostanzialmente, si vuole rimanere al sicuro.

Avatar Giulia Venturini

Pubblicato da:

Lascia un commento