La discriminazione algoritmica e il “lavoro fantasma” non sono frutto del caso. Solo l’attenta analisi della loro lunga e travagliata storia permetterà di affrontare la situazione e intraprendere delle politiche per risolverli.
di Karen Hao
Nel marzo del 2015, sono scoppiate proteste all’Università di Cape Town in Sudafrica per la statua all’interno del campus del colonialista britannico Cecil Rhodes. Il magnate delle miniere che ha donato la terra su cui è stata costruita l’università, ha commesso un genocidio contro gli africani e ha gettato le basi per l’apartheid. All’insegna del motto Rhodes Must Fall, gli studenti hanno chiesto che la statua fosse rimossa. Le loro proteste hanno scatenato un movimento globale per sradicare le presenze del passato coloniale nel sistema educativo.
Gli eventi hanno indotto Shakir Mohamed, un ricercatore sudafricano di intelligenza artificiale che lavora a DeepMind, a riflettere su quali eredità coloniali potrebbero esistere anche nei sistemi di ricerca. Nel 2018, proprio mentre l’AI stava iniziando a fare i conti con problemi come la discriminazione algoritmica, Mohamed ha scritto un post sul blog con le sue riflessioni iniziali, in cui invitava i ricercatori a “decolonizzare l’intelligenza artificiale”, andando oltre la Silicon Valley e coinvolgendo nuove voci, culture e idee per guidare lo sviluppo della tecnologia.
Ora sull’onda delle proteste all’insegna di Rhodes Must Fall nel campus dell’Università di Oxford, dietro la spinta emotiva dell’omicidio di George Floyd e del movimento globale antirazzista, Mohamed ha pubblicato un nuovo documento insieme al suo collega William Isaac e alla dottorata Marie-Therese Png di Oxford. Il testo è correlato di esempi specifici su come le sfide dell’AI siano radicate nel colonialismo e presenta strategie per affrontarle a partire dalla conoscenza storica.
Come si manifesta la colonialità nell’AI
In senso stretto, il colonialismo è finito, ma i suoi effetti permangono ancora oggi. Questo è ciò che gli studiosi chiamano “colonialità”, vale a dire l’idea che gli attuali squilibri di potere tra razze, paesi ricchi e poveri siano estensioni degli squilibri di potere tra colonizzatore e colonizzato. Si prenda il caso del razzismo strutturale come esempio.
Gli europei originariamente inventarono il concetto di razze e le differenze tra loro per giustificare la tratta degli schiavi africani e quindi la colonizzazione dei paesi africani. Negli Stati Uniti, gli effetti di tale ideologia possono ora essere rintracciati nella storia della schiavitù, delle leggi Jim Crow e della brutalità della polizia. Allo stesso modo, sostengono gli autori dell’articolo, la storia coloniale spiega alcune delle caratteristiche e degli impatti più preoccupanti dell’AI. A loro parere le manifestazioni della colonialità nel settore dell’intelligenza artificiale sono cinque:
Discriminazione algoritmica e oppressione. I legami tra discriminazione algoritmica e razzismo coloniale sono forse i più ovvi: algoritmi costruiti per automatizzare le procedure e formati sui dati all’interno di una società razzialmente ingiusta finiscono per replicare le premesse nei loro risultati. Inoltre, quasi tutta la ricerca su questo aspetto dell’AI si concentra sugli Stati Uniti. Esaminarlo nel contesto della colonialità consente di aprire a una prospettiva globale: l’America non è l’unico posto con disuguaglianze sociali. “Ci sono sempre gruppi che sono al centro della discriminazione”, sostiene Isaac.
Lavoro fantasma. Il fenomeno della gig economy a sostegno dell’innovazione dell’AI allarga ancor più le strette relazioni economiche storiche tra colonizzatore e colonizzato. Molte ex colonie statunitensi e britanniche – le Filippine, il Kenya e l’India – sono diventate centri di lavoro fantasma per le aziende statunitensi e britanniche. I rapporti di dipendenza economica e la conoscenza della lingua inglese nelle ex colonie, le rendono una risorsa naturale per il lavoro sui dati.
Beta test. I sistemi di intelligenza artificiale a volte vengono provati su gruppi più vulnerabili prima di essere implementati per utenti “reali”. Cambridge Analytica, per esempio, ha sperimentato le versioni beta dei suoi algoritmi durante le elezioni nigeriane del 2015 e quelle keniane del 2017 prima di utilizzari i suoi sistemi negli Stati Uniti e nel Regno Unito.
Gli studi in seguito hanno scoperto che questi esperimenti hanno condizionato attivamente il processo elettorale keniota e hanno eroso la coesione sociale. Questa procedura rievoca il comportamento storico dell’Impero britannico quando considerava le sue colonie come laboratori per nuove medicine e tecnologie.
Governance dell’AI. Gli squilibri di potere geopolitico che l’era coloniale ha lasciato alle spalle modellano attivamente anche la governance dell’AI. Ciò è avvenuto nella recente corsa alla definizione di linee guida globali sull’etica dell’intelligenza artificiale: i paesi in via di sviluppo in Africa, America Latina e Asia centrale sono stati in gran parte esclusi dalle discussioni, il che ha portato alcuni a rifiutarsi di partecipare alla stesura degli accordi internazionali sul flusso dei dati. Il risultato: i paesi sviluppati continuano a beneficiare in modo sproporzionato delle norme globali definite a loro vantaggio, mentre i paesi in via di sviluppo continuano a rincorrere.
Sviluppo sociale internazionale. Infine, gli stessi squilibri geopolitici di potere influenzano il modo in cui l’AI viene utilizzata per aiutare i paesi in via di sviluppo. Le iniziative AI for good o AI for sustainable development sono spesso paternalistiche. Costringono i paesi in via di sviluppo a dipendere dai sistemi di AI esistenti invece di farli partecipare alla creazione di nuovi progettati misurati sulle loro esigenze.
I ricercatori osservano che questi esempi non sono esaustivi, ma dimostrano quanto l’eredità coloniale sia di vasta portata nello sviluppo dell’AI globale. Collegano anche quelli che sembrano problemi disparati sotto l’ombrello unificante di una unica tesi. Secondo Isaac, “questa analisi ci consente di adottare una nuova grammatica e un nuovo vocabolario per parlare sia del perché questi problemi contano sia di ciò che vogliamo fare per affrontarli nel lungo periodo”.
Come costruire l’AI decoloniale
Il vantaggio di esaminare gli impatti dannosi dell’AI attraverso questa lente, sostengono i ricercatori, è il quadro ideale per mitigare i danni futuri. Png crede che in realtà non esistano “conseguenze indesiderate”, ma solo la mancanza di rappresentanze diversificate.In questa ottica, i ricercatori propongono tre tecniche per ottenere un’AI “decoloniale” o più inclusiva e benefica:
Sviluppo tecnologico sensibile al contesto. In primo luogo, i ricercatori dell’AI che costruiscono un nuovo sistema dovrebbero considerare dove e come verrà utilizzato. Inoltre, il loro lavoro non dovrebbe concludersi con la scrittura del codice, ma dovrebbe includere la verifica, il supporto di politiche che ne facilitino gli usi corretti e l’organizzazione di azioni contro le distorsioni.
Tutela reciproca. In secondo luogo, si dovrebbero ascoltare i gruppi emarginati. Un esempio di come farlo è la pratica in erba dell’apprendimento automatico partecipativo, che cerca di coinvolgere le persone più colpite dai sistemi di apprendimento automatico nella fase di progettazione. Ciò offre ai soggetti la possibilità di intervenire su come sono inquadrati i problemi di apprendimento automatico, quali dati vengono raccolti e come e dove vengono utilizzati i modelli finali.
Solidarietà. Ai gruppi marginalizzati dovrebbero essere forniti anche il supporto e le risorse per iniziare il proprio lavoro di intelligenza artificiale. Esistono già diverse comunità di professionisti dell’AI emarginati, tra cui Deep Learning Indaba, Black in AI e Queer in AI, e il loro lavoro dovrebbe essere amplificato.
Da quando hanno pubblicato il loro articolo, dicono i ricercatori, hanno visto che ha suscitato un interesse travolgente. “Il segnale che mi arriva è positivo”, conclude Isaac. “La comunità scientifica vuole iniziare a impegnarsi.”
Immagine di: Ari Liloan
(rp)