Il più grande studio mai realizzato sui dati di riconoscimento facciale mostra quanto la diffusione del deep learning abbia alimentato la perdita di privacy e l’abbandono delle procedure di consenso al trattamento dei dati.
di Karen Hao
Nel 1964, il matematico e scienziato informatico Woodrow Bledsoe tentò per la prima volta di abbinare i volti dei sospetti alle foto segnaletiche. Misurò le distanze tra i diversi tratti del viso nelle fotografie stampate e le inserì in un programma per computer. I suoi rudimentali successi avrebbero dato il via a decenni di ricerca sulle macchine per il riconoscimento dei volti umani.
Ora un nuovo studio mostra quanto questa tecnologia non abbia solo dato vita a uno strumento di sorveglianza sempre più potente, ma abbia eroso la nostra privacy. L’ultima generazione di riconoscimento facciale basato sul deep learning ha completamente sconvolto le regole sul consenso del trattamento dei dati.
Deborah Raji, una collega dell’organizzazione no-profit Mozilla, e Genevieve Fried, consulente del Congresso degli Stati Uniti sulla responsabilità algoritmica, hanno esaminato oltre 130 set di dati sul riconoscimento facciale compilati in 43 anni. Hanno scoperto che i ricercatori, spinti dall’esplosione dei requisiti di dati dell’apprendimento profondo, hanno gradualmente abbandonato la richiesta del consenso delle persone. Ciò ha portato a incorporare sempre più foto personali in sistemi di sorveglianza a insaputa del soggetto ripreso.
Ha anche portato a set di dati molto disordinati che possono includere involontariamente foto di minori, utilizzare etichette razziste e sessiste o di dubbia qualità. La tendenza potrebbe aiutare a spiegare il numero crescente di casi in cui i sistemi di riconoscimento facciale hanno fallito con conseguenze preoccupanti, come gli arresti sbagliati di due uomini di colore nell’area di Detroit lo scorso anno.
Le persone erano estremamente caute nel raccogliere, documentare e verificare i dati dei volti nei primi giorni, dice Raji. “Adesso questa prudenza è stata abbandonata”, ella spiega. “Non si può tenere traccia di un milione di volti e non si può nemmeno fingere di avere la situazione sotto controllo”.
Una storia di dati sul riconoscimento facciale
I ricercatori hanno identificato quattro epoche principali di riconoscimento facciale, ciascuna guidata da un crescente desiderio di migliorare la tecnologia. La prima fase, che è durata fino agli anni 1990, era in gran parte caratterizzata da metodi manuali intensivi e lenti dal punto di vista computazionale.
Poi, spinto dalla consapevolezza che il riconoscimento facciale avrebbe potuto tracciare e identificare le persone in modo più efficace delle impronte digitali, il Dipartimento della Difesa degli Stati Uniti ha pompato 6,5 milioni di dollari per creare il primo set di dati sul viso su larga scala. In oltre 15 sessioni fotografiche in tre anni, il progetto ha raccolto 14.126 immagini di 1.199 individui. Il database Face Recognition Technology (FERET) è stato rilasciato nel 1996.
Il decennio successivo ha visto un aumento della ricerca accademica e commerciale sul riconoscimento facciale e sono stati creati molti altri set di dati. La stragrande maggioranza è stata acquisita tramite servizi fotografici come FERET e aveva il pieno consenso dei partecipanti. Molti includevano anche metadati meticolosi, dice Raji, come l’età e l’etnia dei soggetti o le informazioni sul grado di illuminazione. Ma questi primi sistemi si sono mossi in contesti reali, il che ha spinto i ricercatori a cercare set di dati più ampi e diversificati.
Nel 2007, il rilascio del set di dati Labeled Faces in the Wild (LFW) ha aperto le porte alla raccolta di dati tramite la ricerca sul web. I ricercatori hanno iniziato a scaricare immagini direttamente da Google, Flickr e Yahoo senza preoccuparsi del consenso. LFW ha anche attenuato gli standard sull’inclusione dei minori, utilizzando foto trovate con termini di ricerca come “bambino”, “giovanile” e “adolescente” per aumentare la diversità.
Questo sistema ha permesso di creare set di dati significativamente più grandi in breve tempo, ma il riconoscimento facciale ha dovuto ancora affrontare molte delle stesse sfide di prima. Ciò ha spinto i ricercatori a cercare altri metodi e dati per superare le scarse prestazioni della tecnologia.
Quindi, nel 2014, Facebook ha utilizzato le foto degli utenti per addestrare un modello di apprendimento profondo chiamato DeepFace. Sebbene l’azienda non abbia mai rilasciato il set di dati, le prestazioni sovrumane del sistema hanno elevato l’apprendimento profondo al metodo de facto per analizzare i volti.
La verifica manuale e l’etichettatura sono diventate quasi impossibili poiché i set di dati sono cresciuti fino a decine di milioni di foto, afferma Raji. In questo stesso periodo hanno iniziato a manifestarsi fenomeni preoccupanti, come etichette generate automaticamente che includono terminologia offensiva.
Anche il modo in cui sono stati utilizzati i set di dati ha mostrato dei cambiamenti. Invece di cercare di abbinare gli individui, i nuovi modelli hanno iniziato a concentrarsi maggiormente sulla classificazione. “Invece di dire se la foto è di una determinata persona o no, si è trasformato nel tentativo di prevedere la sua personalità o la sua etnia”, dice Raji.
Amba Kak, direttore delle politiche globali di AI Now, che non ha partecipato alla ricerca, afferma che il documento offre un quadro netto di come si è evoluta l’industria biometrica. L’apprendimento profondo può aver salvato la tecnologia da alcune delle sue difficoltà, ma “anche questo progresso tecnologico ha avuto un costo”, ella afferma. “Ha sollevato tutti questi problemi che ora abbiamo di fronte: consenso, origine, problemi di proprietà intellettuale, privacy.”
Danno che genera danno
Raji dice che la sua indagine sui dati l’ha resa seriamente preoccupata sui rischi del riconoscimento facciale basato sull’apprendimento profondo. “È molto più pericoloso”, continua. “Il requisito dei dati costringe a raccogliere informazioni incredibilmente sensibili su, almeno, decine di migliaia di persone. Porta a violare la loro privacy. Questo di per sé il danno di partenza. Inoltre, stiamo accumulando tutte queste informazioni che non si possono controllare per costruire qualcosa che probabilmente funzionerà in modi imprevedibili”.
Spera che il documento induca i ricercatori a riflettere sul compromesso tra i guadagni in termini di prestazioni derivati dal deep learning e l’abbandono delle procedure di consenso, una meticolosa verifica dei dati e una documentazione completa. “Valeva la pena abbandonare tutte queste pratiche per il deep learning?” si domanda. Raji esorta coloro che vogliono continuare a sviluppare il riconoscimento facciale a prendere in considerazione nuove tecniche per provare davvero a utilizzare questo strumento senza ferire le persone.