Secondo una valutazione indipendente del suo servizio di annunci, l’azienda sta rifiutando di pubblicare alcuni annunci di lavoro per le donne esclusivamente a causa dell’appartenenza di genere, violando in tal modo le leggi statunitensi sul lavoro.
di Karen Hao
L’audit, condotto da ricercatori indipendenti della University of Southern California (USC), rivela che il sistema di pubblicazione degli annunci di Facebook mostra annunci di lavoro diversi tra donne e uomini anche se le qualifiche richieste sono le stesse. Questa è considerata discriminazione basata sul sesso ai sensi della legge statunitense sulle pari opportunità di lavoro, che vieta il targeting degli annunci in base a caratteristiche protette. I risultati arrivano nonostante anni di patrocinio e azioni legali e dopo le promesse di Facebook di rivedere il modo in cui distribuisce gli annunci.
I ricercatori si sono registrati come inserzionisti su Facebook e hanno acquistato coppie di annunci per lavori con qualifiche identiche, ma dati demografici reali diversi. Hanno pubblicizzato, per esempio, due lavori di fattorino: uno per Domino’s (consegna della pizza) e uno per Instacart (consegna della spesa). Attualmente ci sono più uomini che donne che lavorano per Domino’s e viceversa per Instacart.
Sebbene non sia stato specificata alcuna preferenza sulla base delle informazioni demografiche – una funzione di Facebook disabilitata per alloggi, credito e annunci di lavoro nel marzo del 2019 dopo aver sostenuto diverse cause legali – gli algoritmi hanno comunque mostrato gli annunci a gruppi demografici statisticamente distinti. L’annuncio di Domino è stato mostrato a più uomini che donne e l’annuncio di Instacart è stato mostrato a più donne che uomini.
I ricercatori hanno riscontrato lo stesso schema con gli annunci per altre due coppie di lavori: ingegneri del software per Nvidia (prevalenza maschile) e Netflix (prevalenza femminile) e addetti alle vendite di automobili (prevalenza maschile) e gioielli (prevalenza femminile). I risultati indicano che gli algoritmi di Facebook stanno in qualche modo riprendendo l’attuale distribuzione demografica di questi lavori, che spesso è legata a ragioni storiche.
I ricercatori non sono stati in grado di discernere i motivi alla base degli annunci, anche perché l’azienda non spiega come funziona il suo sistema di pubblicazione degli annunci. “Facebook ripropone lo stesso schema quando pubblica annunci, senza alcun legame con il tipo di qualifica”, afferma Aleksandra Korolova, ricercatrice della USC, che ha condotto lo studio con il suo collega John Heidemann e Basileal Imana.
La ricerca dimostra che Facebook non ha risolto i suoi problemi di discriminazione pubblicitaria da quando ProPublica ha portato la questione alla luce per la prima volta nell’ottobre del 2016. All’epoca, ProPublica ha rivelato che la piattaforma consentiva agli inserzionisti di opportunità di lavoro e alloggio di escludere determinati segmenti di pubblico caratterizzati da tratti come il sesso e la razza. Tali gruppi godono ora di una protezione speciale ai sensi della legge statunitense, rendendo questa pratica illegale. Ci sono voluti due anni e mezzo e diverse scaramucce legali per costringere Facebook a rimuovere quella funzione.
Ma pochi mesi dopo, il Department of Housing and Urban Development (HUD) degli Stati Uniti ha intentato una nuova causa, sostenendo che gli algoritmi di pubblicazione degli annunci di Facebook stavano ancora escludendo alcune categorie per gli annunci immobiliari senza che l’inserzionista l’avesse specificato. Un team di ricercatori indipendenti tra cui Korolova, sotto la guida di Muhammad Ali della Northeastern University e Piotr Sapiezynski, ha confermato queste accuse una settimana dopo. Hanno scoperto, per esempio, che le case in vendita venivano mostrate più spesso agli utenti bianchi e le case in affitto invece agli utenti delle minoranze.
Korolova ha voluto riesaminare la questione con il suo ultimo audit perché l’onere della prova per la discriminazione sul lavoro è maggiore rispetto alla discriminazione per l’alloggio. Sebbene qualsiasi sbilanciamento nella visualizzazione degli annunci in base a caratteristiche protette sia illegale nel caso degli alloggi, il diritto del lavoro degli Stati Uniti lo ritiene giustificabile se lo sbilanciamento è dovuto a legittime differenze di qualifica. La nuova metodologia controlla questo fattore.
“Lo schema dell’esperimento è molto pulito”, afferma Sapiezynski, che non è stato coinvolto nell’ultimo studio. Mentre alcuni potrebbero sostenere che gli addetti alle vendite di auto e gioielli hanno effettivamente qualifiche diverse, egli dice, le differenze tra chi consegna la pizza e chi consegna la spesa sono trascurabili. “Queste differenze di genere non possono essere spiegate da diverse qualifiche”, aggiunge. “Facebook non può più dire di agire in conformità alla legge”.
Il rilascio di questo audit arriva in mezzo a un esame approfondito dei pregiudizi dell’AI di Facebook. A marzo, “MIT Technology Review” ha pubblicato i risultati di un’indagine di nove mesi in cui ha scoperto che il team, formato per la prima volta nel 2018, aveva trascurato di lavorare su questioni come l’amplificazione algoritmica della disinformazione e la polarizzazione a causa dei paraocchi nei confronti dei pregiudizio dell’AI.
L’azienda ha pubblicato un post sul blog poco dopo, evidenziando che Facebook cerca di “comprendere meglio i potenziali errori che possono influenzare il nostro sistema di annunci, approfondendo il problema dell’equità algoritmica negli annunci”.
“Abbiamo adottato misure significative per affrontare i problemi di discriminazione negli annunci e oggi abbiamo team che lavorano su questo aspetto”, ha affermato il portavoce di Facebook Joe Osborn in una dichiarazione. “Il nostro sistema prende in considerazione molti segnali per cercare di offrire alle persone annunci a cui siano interessati, ma comprendiamo le preoccupazioni sollevate nel rapporto … Stiamo continuando a lavorare a stretto contatto con la comunità dei diritti civili, le autorità di regolamentazione e gli accademici su queste importanti questioni”.
Nonostante queste affermazioni, tuttavia, Korolova afferma di non aver riscontrato alcun cambiamento evidente tra l’audit del 2019 e questo nel modo in cui funzionano gli algoritmi di pubblicazione degli annunci di Facebook. “E’ davvero deludente, perché abbiamo portato questo problema alla loro attenzione due anni fa”, ella dice. Si è anche offerta di collaborare con Facebook, spiega, ma non ha ricevuto risposta.
In precedenti interviste, l’azienda ha affermato di non essere in grado di discutere i dettagli di come stava lavorando per mitigare la discriminazione algoritmica nel suo servizio pubblicitario a causa del contenzioso in corso. Il team addetto agli annunci ha affermato che i suoi progressi sono stati limitati da sfide tecniche.
Sapiezynski, che ha condotto tre audit della piattaforma, afferma che questo aspetto non ha nulla a che fare con il problema. “Facebook deve ancora riconoscere che c’è un problema”, dice. Mentre il team risolve i nodi tecnici, aggiunge, c’è anche una semplice soluzione provvisoria: disattivare il targeting algoritmico per gli annunci relativi ad alloggi, lavoro e prestito senza influire sul resto del suo servizio. È davvero solo una questione di volontà politica.
Christo Wilson, un altro ricercatore della Northeastern che studia i pregiudizi algoritmici ma non ha partecipato alla ricerca di Korolova o Sapiezynski, concorda: “Quante volte ricercatori e giornalisti hanno bisogno di trovare questi problemi prima che venga riconosciuto il fatto che l’intero sistema di targeting degli annunci è fallimentare?”.
Foto: Ms Tech / Pexels