Secondo uno studio del governo americano, quasi 200 algoritmi di riconoscimento facciale, la maggior parte del settore, hanno mostrato prestazioni peggiori su volti di persone non bianche.
di Karen Hao
Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha testato ogni algoritmo su due dei compiti più comuni per il riconoscimento facciale. Il primo, noto come corrispondenza “one-to-one”, prevede il riscontro delle affinità tra la foto di una persona e un’altra immagine della stessa persona in un database. Il sistema viene usato, per esempio, per sbloccare smartphone o controllare passaporti.
Il secondo, noto come ricerca “uno-a-molti”, prevede la ricerca delle corrispondenze tra la foto di una persona e il database. Questa tecnica è spesso usata dai dipartimenti di polizia per identificare i sospetti in un’indagine.
L’agenzia ha studiato quattro set di dati sui volti attualmente utilizzati nelle applicazioni del governo degli Stati Uniti: foto segnaletiche di persone che vivono negli Stati Uniti; foto delle domande di persone che chiedono sussidi per l’immigrazione; foto delle domande di persone che chiedono il visto; e foto di persone all’attraversamento del confine negli Stati Uniti. In totale, i set di dati includevano oltre 18 milioni di immagini di 8 milioni e mezzo di persone.
Il NIST ha condiviso alcuni risultati significativi dello studio. I principali:
1. Per la corrispondenza uno-a-uno, la maggior parte dei sistemi presentava un tasso più elevato di false corrispondenze positive per facce asiatiche e afro-americane rispetto alle facce caucasiche, a volte di un fattore 10 o addirittura 100. In altre parole, avevano maggiori probabilità di trovare una corrispondenza anche quando non c’era.
2. Il punto 1 non è vero per gli algoritmi di riconoscimento facciale sviluppati nei paesi asiatici, che hanno prodotto pochissime differenze nei falsi positivi tra i volti asiatici e caucasici.
3. Gli algoritmi sviluppati negli Stati Uniti hanno ottenuto pessimi risultati nel mettere a confronto i volti asiatici, afroamericani e nativi americani. I nativi americani hanno subito i più alti tassi di falsi positivi.
4. I sistemi di corrispondenza uno-a-molti avevano le prestazioni peggiori con i falsi positivi per le donne afro-americane, il che espone questa popolazione al più alto rischio di essere falsamente accusata di un crimine.
L’uso dei sistemi di riconoscimento facciale sta crescendo rapidamente nelle forze dell’ordine, per il controllo delle frontiere e in una lunga serie di altre applicazioni. Mentre diversi studi accademici hanno precedentemente dimostrato che i sistemi commerciali popolari sono inaffidabili per quanto riguarda razza e genere, lo studio del NIST è la valutazione più completa fino ad oggi e conferma questi risultati precedenti, mettendo in discussione la validità dei sistemi adottati.
Ora spetta ai responsabili politici trovare il modo migliore per regolamentare queste tecnologie. Il NIST esorta inoltre gli sviluppatori di riconoscimento facciale a condurre ulteriori ricerche su come eliminare questi pregiudizi.
Immagine: David J. Phillip/AP
(rp)