“Ban the Scan” la campagna di Amnesty per vietare i sistemi di riconoscimento facciale

Amnesty International sta producendo una mappa di tutti i luoghi di New York City dove le telecamere di sorveglianza scansionano i volti dei residenti. La campagna “Ban the Scan” arruolerà volontari per utilizzare i loro smartphone per identificare, fotografare e localizzarle telecamere di sorveglianza di proprietà del governo, in grado di registrare video che potrebbero essere confrontati con i volti delle persone in un database, attraverso il riconoscimento facciale basato sull’intelligenza artificiale.
La mappa ha lo scopo di dare ai newyorkesi il potere dell’informazione contro una tecnologia invasiva il cui utilizzo e scopo spesso non sono completamente divulgati al pubblico. Ha anche l’obiettivo di fare pressione sul Consiglio della città di New York per scrivere e approvare una legge che lo limiti o vieti. Tale legge è già stata approvata in altre città degli Stati Uniti, come Boston, Portland e San Francisco.
Amnesty International afferma che senza il consenso delle persone la tecnologia di riconoscimento facciale può essere utilizzata scandagliando milioni di immagini dai profili dei social media e dalle patenti di guida. Il software di riconoscimento facciale di aziende come Clearview AI (commercializzato principalmente per le forze dell’ordine), può quindi utilizzare algoritmi di visione artificiale per confrontare quelle immagini con le immagini del viso catturate dalla televisione a circuito chiuso (CCTV) o da altre telecamere di videosorveglianza e memorizzate in un database.
I volontari di Amnesty International a partire dal prossimo maggio, saranno in grado di utilizzare uno strumento software per identificare tutte le telecamere di riconoscimento facciale nella loro visuale, come in un incrocio dove spesso si trovano numerose telecamere. Lo strumento, che viene eseguito sul browser di un cellulare, consente agli utenti di posizionare un mirino quadrato attorno a tutte le telecamere che vedono. Il software integra Google Street View e Google Earth per aiutare i volontari a etichettare e allegare dati di geolocalizzazione alle telecamere che individuano.

Campagna “Ban the Scan”
La mappa fa parte di una campagna più ampia chiamata “Ban the Scan”, ha lo scopo di educare le persone in tutto il mondo sui pericoli del riconoscimento facciale che mina i diritti civili. La ricerca ha dimostrato che i sistemi di riconoscimento facciale non sono così accurati quando si tratta di analizzare i volti dalla pelle scura, mettendo le persone di colore a rischio di essere erroneamente identificate. La tecnologia anche se accurata, esacerba il razzismo sistemico perché è utilizzata in modo sproporzionato per identificare le persone di colore, che sono già soggette a discriminazione da parte delle forze dell’ordine. La campagna è sponsorizzata da Amnesty International in collaborazione con una serie di altri gruppi di difesa tecnologica, privacy e libertà civili.
Amnesty International e i suoi partner nella fase iniziale del progetto, annunciato giovedì scorso, hanno lanciato il sito Ban the Scan che i newyorkesi possono utilizzare per generare commenti pubblici sull’uso del riconoscimento facciale da parte del Dipartimento di Polizia di New York (NYPD). Il sito più avanti nella campagna consentirà ai cittadini di generare richieste al Freedom of Information Act per scoprire dove e come vengono utilizzati i sistemi di riconoscimento facciale nel loro quartiere o distretto.
Amnesty International spera di lanciare un progetto crowdsourcing di mappatura simile a quello a New York anche a New Delhi entro questa primavera, per la Cisgiordania entro l’estate o all’inizio dell’autunno, e a Ulan Bator, in Mongolia, nel quarto trimestre dell’anno.

Riconoscimento facciale a New York City
Il Dipartimento di Polizia di New York (NYPD) dopo gli attacchi dell’11 settembre 2001, ha speso 350 milioni di dollari in sovvenzioni federali per sviluppare un’infrastruttura di sorveglianza chiamata “Domain Awareness System (DAS)”. È una rete estesa di scanner di targhe, sensori fisici e 18.000 telecamere a circuito chiuso, il tutto per alimentare una serie di database del NYPD. Il sistema negli anni successivi al suo completamento è stato utilizzato sia per l’antiterrorismo sia per le forze dell’ordine locali, anche se non è stato immediatamente associato al riconoscimento facciale.
Il NYPD nel 2011 ha lanciato la sua nuova sezione di identificazione facciale (FIS), potrebbe cercare corrispondenze tra le immagini nel database DAS di CCTV e altri filmati di sorveglianza. Matt Mahmoudi, ricercatore di intelligenza artificiale e diritti umani presso Amnesty International, ha detto:
«Il NYPD può utilizzare le miniature di quel video ed eseguirle tramite software come DataWorks Plus o Clearview AI, che le confronta con altri database di immagini. Le immagini del database di sorveglianza almeno nel caso di Clearview AI, possono anche essere confrontate con immagini estrapolate dai social network».
Le stesse statistiche del NYPD mostrano che ha eseguito quasi 10.000 ricerche di riconoscimento facciale nel suo database DAS nel 2019, portando a 2.510 “possibili corrispondenze”. Ciò potrebbe essere stato notevolmente sottostimato.
BuzzFeed News ha riferito nel febbraio 2020 che il NYPD aveva eseguito più di 11.000 ricerche utilizzando la controversa tecnologia Clearview AI. Clearview AI ha affermato di lavorare con 600 distretti delle forze dell’ordine negli Stati Uniti e la tecnologia Face Plus di DataWorks Plus è ampiamente utilizzata dalle forze dell’ordine in tutto il paese.
Matt Mahmoudi ha detto che il contenuto e la varietà delle immagini utilizzate per il riconoscimento facciale generalmente dipendono da quale agenzia possiede e gestisce il database, per esempio, un’agenzia federale per indagini sull’immigrazione può raccogliere miniature di riconoscimento facciale per confrontarle con un database di patenti di guida; un database utilizzato dalle forze dell’ordine locali può utilizzare sia le immagini delle targhe sia le immagini del viso dai social media in un’indagine su sospetti criminali. La popolazione in tutti questi casi, non sa che i loro volti sono scansionati per il riconoscimento facciale quando attraversano un incrocio a New York City.
Michael Kleinman direttore dell’iniziativa Silicon Valley di Amnesty International ha detto:
“Lo scopo di fare questa mappatura è rendere chiaro ai newyorkesi e a chiunque viva in una città che non c’è via d’uscita con un dipartimento di polizia che utilizza questa tecnologia; alle persone se gli si chiedesse se si sentissero a proprio agio sapendo che la polizia ha un fascicolo su ogni cittadino, la maggior parte risponderebbe, “‘Certo che no, sembra qualcosa che è accaduto nella Germania dell’Est”.
La polizia di New York la scorsa estate ha usato il suo sistema di riconoscimento facciale per rintracciare Derrick Ingram, un attivista di Black Lives Matter accusato durante una manifestazione di aver gridato con un megafono nell’orecchio di un poliziotto. Il 7 agosto decine di agenti di polizia, alcuni in tenuta antisommossa, si sono presentati alla porta di Derrick Ingram nel quartiere di Hell’s Kitchen a New York. L’evento ha provocato una protesta pubblica perché era un altro esempio di riconoscimento facciale usato indiscriminatamente contro le persone di colore, come per tre uomini neri che sono stati ingiustamente incarcerati a causa di una fallace tecnologia di riconoscimento, e altri casi potrebbero non essere stati segnalati.
Matt Mahmoudi ha detto:
«Quello che dobbiamo ricordare del caso di Derrick Ingram e dei casi di molti altri manifestanti di Black Lives Matter, incluso George Floyd, è che non c’è stato alcun giusto processo. Il movimento Black Lives Matter dello scorso anno è stato una reazione ai pregiudizi sistematici nel modo in cui la polizia interagisce con i neri, un problema di riconoscimento facciale può solo esacerbare. Ci sono stati casi estremamente eclatanti di violenza da parte della polizia, e il modo in cui questi casi sono stati gestiti dovrebbe farti chiedere se vuoi utilizzare le forze di polizia che stanno già affrontando questioni di giustizia e di polizia discriminatoria e dotarle di tecniche di riconoscimento facciale. È questa la domanda più importante: vuoi mettere questo tipo di discriminazione sotto controllo?».
È emerso che a aggravare ulteriormente il problema c’è il fatto che l’intelligenza artificiale utilizzata nei sistemi di riconoscimento facciale ha dimostrato di essere meno affidabile quando identifica i volti delle persone di colore. Ciò porta a tassi più alti di mancata corrispondenza tra i volti neri o bruni che tra i volti bianchi.
L’ufficio del sindaco Bill de Blasio dopo l’incidente di Derrick Ingram ha detto che avrebbe “rivalutato” le linee guida del Dipartimento di polizia per l’uso del riconoscimento facciale, ma è discutibile se la polizia di New York può credibilmente sorvegliare se stessa sull’uso giudizioso del riconoscimento facciale. È questo uno dei motivi per cui Amnesty International e altri gruppi per i diritti civili credono che il consiglio comunale debba approvare una legge che limiti l’uso della tecnologia.
Il Consiglio comunale di New York se non si muove rapidamente, potrebbe vedere il governo federale muoversi per primo con una serie di regolamenti su come le forze dell’ordine a tutti i livelli possono utilizzare la tecnologia: una legge federale potrebbe anche sostituire il miscuglio di leggi locali e statali che stanno aumentando di numero.
Lo scorso giugno un tale disegno di legge è stato introdotto in Senato dai senatori Ed Markey (D-MA) e Jeff Merkley (D-OR), chiamato Facial Recognition and Biometric Technology Moratorium Act del 2020, non è riuscito ad avanzare nel 2020. Il disegno di legge, come scritto, impedirebbe che i fondi federali siano spesi per la tecnologia di riconoscimento facciale o qualsiasi altro sistema di sorveglianza biometrica. Le agenzie federali, quindi, non potrebbero stipulare contratti per sistemi di sorveglianza per il proprio uso, né il Congresso o le agenzie federali potrebbero concedere denaro a città e Stati per tali sistemi.
Ora con il nuovo anno c’è un nuovo Presidente e un nuovo Congresso. Il disegno di legge di Ed Markey e Jeff Merkley, o qualche versione di esso, potrebbe ancora vedere la luce del giorno. Evan Greer guida il gruppo di difesa tecnologica progressista Fight for the Future, ha detto:
«I democratici controllano la Camera e il Senato, hanno fatto una campagna su un messaggio di giustizia razziale, non hanno assolutamente scuse per non approvare la legislazione sulla moratoria del buon senso che interrompe l’uso in corso di questa tecnologia razzista e discriminatoria in modo che possiamo avere un vero dibattito su quale ruolo, se del caso, può svolgere in una società giusta».

, ,
Avatar photo

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →