Seguici
Iscriviti alla nostra newsletter

    Potere, altro che etica

    E’ arrivato il momento di riconoscere le responsabilità politiche sull’impatto fisico che l’AI ha sul pianeta e di mettere in campo iniziative per il cambiamento, afferma la studiosa Kate Crawford nel suo nuovo libro.

    di Karen Hao

    All’inizio del XX secolo, un cavallo tedesco prese d’assalto l’Europa. Clever Hans, come era noto, poteva apparentemente eseguire una serie di compiti precedentemente limitati agli umani. Poteva aggiungere e sottrarre numeri, leggere l’ora e i mesi dell’anno, persino compitare parole e frasi, il tutto timbrando la risposta con uno zoccolo. “A” era un tocco; “B” era due; 2 + 3 era cinque. Era un fenomeno internazionale e la prova, molti credevano, che si poteva insegnare agli animali a ragionare.

    Il problema era che Clever Hans non stava davvero facendo nessuna di queste cose. Come scoprirono in seguito gli investigatori, il cavallo aveva imparato a fornire la risposta giusta osservando i cambiamenti nella postura, nella respirazione e nelle espressioni facciali di chi faceva la domanda. Se l’interrogante si fosse trovato troppo lontano, Hans avrebbe perso le sue capacità. La sua intelligenza era solo un’illusione.

    Questa storia viene utilizzata come ammonimento per i ricercatori di intelligenza artificiale quando valutano le capacità dei loro algoritmi. Un sistema non è sempre intelligente come sembra. E’ necessaria la massima attenzione per misurarlo correttamente.

    Nel suo nuovo libro, Atlas of AI, Kate Crawford, autorevole studiosa di intelligenza artificiale, ribalta questa morale. Il problema, scrive, era nel modo in cui venivano definite le prestazioni del cavallo: “Hans stava già compiendo notevoli imprese di comunicazione interspecie, ma queste non erano riconosciute come intelligenza”.

    Inizia così l’esplorazione di Crawford nella storia dell’intelligenza artificiale e del suo impatto sul nostro mondo fisico. Ogni capitolo cerca di ampliare la nostra comprensione della tecnologia svelando i limiti delle definizioni che le abbiamo attribuito.

    Crawford ci accompagna in un viaggio globale, dalle miniere in cui vengono estratti gli elementi delle terre rare utilizzati nella produzione di computer ai centri logistici di Amazon dove i corpi umani sono stati meccanizzati nell’incessante ricerca della crescita e del profitto dell’azienda. 

    Nel primo capitolo, racconta di essere alla guida di un furgone in viaggio dal cuore della Silicon Valley a una minuscola comunità mineraria nella Clayton Valley del Nevada. Lì, indaga sulle pratiche ambientali distruttive necessarie per ottenere il litio che alimenta i computer. È un esempio efficace di quanto siano vicini questi due luoghi nello spazio fisico e allo stesso tempo di quanto siano distanti tra loro in termini di ricchezza.

    Basando la sua analisi su luoghi reali, Crawford elimina il topos condiviso secondo cui l’intelligenza artificiale è semplicemente un software efficiente in esecuzione nel “cloud”. Le sue descrizioni ravvicinate e vivide rendono impossibile continuare a parlare della tecnologia puramente in astratto. Nel capitolo quattro, per esempio, Crawford ci accompagna in un nuovo viaggio, questa volta attraverso il tempo. 

    Per spiegare la storia dell’ossessione settoriale per la classificazione, visita il Penn Museum di Filadelfia, dove sono esposte innumerevoli file di teschi umani raccolti da Samuel Morton, un craniologo americano del XIX secolo, che credeva fosse possibile dividerli “oggettivamente” in base alle loro misurazioni fisiche nelle cinque “razze” del mondo: africani, nativi americani, caucasici, malesi e mongoli. Crawford traccia parallelismi tra il lavoro di Morton e i moderni sistemi di intelligenza artificiale che continuano a classificare il mondo in categorie fisse.

    Queste classificazioni sono tutt’altro che oggettive, ella sostiene. Impongono un ordine sociale, naturalizzano le gerarchie e amplificano le disuguaglianze. Vista attraverso questa lente, l’AI non può più essere considerata una tecnologia oggettiva o neutra. Nei suoi 20 anni di carriera, Crawford ha affrontato le conseguenze nel mondo reale dei sistemi di dati su larga scala, dell’apprendimento automatico e dell’intelligenza artificiale. 

    Nel 2017, con Meredith Whittaker, ha co-fondato l’istituto di ricerca AI Now come una delle prime organizzazioni dedicate allo studio delle implicazioni sociali di queste tecnologie. Ora è anche professoressa dell’USC Annenberg, a Los Angeles, ricercatrice senior di Microsoft Research e ha inaugurato la visiting chair for AI and Justice in parternship con l’École Normale Supérieure di Parigi.

    Cinque anni fa, dice Crawford, stava ancora lavorando per introdurre la semplice idea che i dati e l’intelligenza artificiale non fossero neutrali. Ora la conversazione si è evoluta e l’etica dell’AI è diventata un tema centrale del settore di ricerca. Ho avuto modo di porle alcune domande sul suo libro. 

    Kate CrawfordPer gentile concessione di Kate Crawford

    Perché ha scelto di scrivere questo libro e cosa significa per lei?

    Molti dei libri che sono stati scritti sull’intelligenza artificiale in realtà parlano solo di risultati tecnologici molto limitati. A volte si soffermano sui protagonisti dell’intelligenza artificiale, ma questo è davvero tutto ciò che abbiamo avuto finora per capire cos’è l’intelligenza artificiale. In questo modo si è generata una comprensione molto distorta dell’intelligenza artificiale come sistema puramente tecnico e in qualche modo oggettivo e neutro e, come affermano Stuart Russell e Peter Norvig nel loro testo adottato in oltre 1.500 università come agenti intelligenti che prendono la migliore decisione tra tutte le azioni possibili.

    Volevo fare qualcosa di molto diverso: capire davvero come è fatta l’intelligenza artificiale nel senso più ampio del termine. Ciò significa osservare le risorse naturali che sfrutta, l’energia che consuma, il lavoro nascosto lungo tutta la catena di approvvigionamento e le enormi quantità di dati che vengono estratte da ogni piattaforma e dispositivo che utilizziamo ogni giorno.

    In tal modo, volevo far vedere che l’AI non è né artificiale né intelligente. È l’ opposto dell’artificiale. Proviene dai materiali più profondi della crosta terrestre e dalle nostre attività. Non è intelligente. Penso che ci sia questo grande peccato originale sul campo, dove le persone presumevano che i computer fossero in qualche modo come i cervelli umani e se li avessimo addestrati come bambini, sarebbero diventati lentamente esseri soprannaturali.

    Questo aspetto è davvero problematico: abbiamo parlato di intelligenza quando in realtà stiamo solo osservando forme di analisi statistica su scala che presentano tanti problemi quanti sono i dati che vengono forniti.

    È stato immediatamente ovvio per lei che si doveva pensare in questo modo all’AI o è stato il frutto di un lungo percorso?

    Sicuramento un lungo percorso. Direi che uno dei punti di svolta per me è stato nel 2016, quando ho dato vita a un progetto chiamato “Anatomia di un sistema di intelligenza artificiale” con Vladan Joler. Ci siamo incontrati a una conferenza sull’AI e stavamo cercando di definire in modo efficace ciò che serve per far funzionare Amazon Echo. Quali sono i componenti? Come estrae i dati? Quali sono i livelli nella pipeline di dati?

    Ci siamo resi conto che in realtà, per capirlo, si deve analizzare da dove provengono i componenti. Dove sono state prodotte i chip? Dove sono le miniere? Quali sono i percorsi logistici e come si sviluppa la filiera? E anche, come tracciamo la fine del ciclo di vita di questi dispositivi? Come  si smaltiscono i rifiuti elettronici in luoghi come Malesia, Ghana e Pakistan? Ciò che abbiamo ottenuto è stato questo progetto di ricerca biennale che richiede molto tempo per tracciare davvero le catene di approvvigionamento di materiali dalla culla alla tomba.

    Quando si iniziano a guardare i sistemi di intelligenza artificiale su questa scala più ampia e su un orizzonte temporale più lungo, ci si allontana da questi raccontiincentrati sulla “correttezza dell’AI” e sull'”etica” per dire: questi sono sistemi che producono cambiamenti geomorfici profondi e duraturi nel nostro pianeta, oltre ad aumentare le forme di disuguaglianza del lavoro che già abbiamo nel mondo.

    La riflessione mi ha fatto capire che dovevo passare dall’analisi di un solo dispositivo, Amazon Echo, all’applicazione di questo tipo di analisi all’intero settore. Per raggiungere il nuovo obiettivo ho avuto bisogno di cinque anni. E’ essenziale vedere effettivamente quanto ci costano davvero questi sistemi, perché raramente facciamo un lavoro per comprendere le loro vere implicazioni planetarie.

    L’altra cosa che direi che è stata una vera ispirazione è il crescente campo di studiosi che stanno affrontando le tematiche relative a lavoro, dati e disuguaglianza. Penso in particolare a Ruha Benjamin, Safiya Noble, Mar Hicks, Julie Cohen, Meredith Broussard, Simone Brown e altri. Questi contributi aprono prospettive nuove sul rapporto tra ambiente, diritti dei lavoratori e protezione dei dati.

    Lei viaggia continuamente in tutto il libro. Quasi ogni capitolo inizia con uno sguardo sull’ambiente circostante. Perché questa scelta?

    Era mia intenzione portare avanti un’analisi dell’AI in luoghi specifici, allontanarsi dai “nulla” astratti dello spazio algoritmico, dove si svolgono così tanti dibattiti sull’apprendimento automatico. Spero di aver reso evidente che quando non lo facciamo, quando parliamo solo di questi “spazi da nessuna parte”, di oggettività algoritmica, si sta effettuando una precisa scelta politica con le sue conseguenze.

    I rapporti tra i diversi luoghi mi hanno fatto pensare alla metafora dell’atlante perché sono libri che permettono di guardare un intero continente oppure ingrandire e guardare una catena montuosa o una città, cambiando prospettiva e scala di grandezza. C’è una bella frase che cito nel libro della fisica Ursula Franklin. Scrive di come le mappe abbracciano il noto e l’ignoto in uno sguardo collettivo. Quindi per me, è stato davvero importante attingere alle conoscenze che avevo, ma anche pensare ai luoghi reali in cui l’AI viene costruita a partire da rocce, sabbia e petrolio.

    Che accoglienza ha avuto il libro?

    Una delle cose che mi ha sorpreso nelle prime risposte è che le persone sentono che questo nuova prospettiva è arrivata in ritardo. C’è un momento in cui ci rendiamo conto che abbiamo bisogno di un modo diverso di vedere le cose rispetto a quello prevalente. Abbiamo passato troppo tempo concentrandoci su correzioni tecnologiche limitate per i sistemi di intelligenza artificiale e su risposte tecnologiche. Ora dobbiamo fare i conti con l’impronta ambientale dei sistemi e con le forme reali di sfruttamento del lavoro che si sono verificate nella costruzione di questi sistemi.

    E ora stiamo anche iniziando a vedere l’eredità tossica di ciò che accade quando estrai quanti più dati possibile da Internet e lo presenti come “verità”. Questo tipo di inquadramento problematico del mondo ha prodotto così tanti danni e, come sempre, i danni sono stati avvertiti soprattutto da comunità che erano già emarginate e non stavano sperimentando i benefici di questi sistemi.

    Quali cambiamenti sono auspicabili?

    Spero di non dover più assistere a conversazioni in cui termini come “etica” e “AI for good” siano privi di qualsiasi significato reale. Spero che si apra il sipario su chi gestisce le leve di questi sistemi. Ciò significa passare dai cosiddetti principi etici al potere.

    Come superare la fase etica?

    Se c’è stata una vera trappola nel settore tecnologico negli ultimi dieci anni, è che la teoria del cambiamento ha sempre messo al centro l’ingegneria. Si è ripetutamente detto: “Se c’è un problema, c’è una soluzione tecnologica”. Solo di recente si sente dire: “Oh, beh, se c’è un problema, la regolamentazione può risolverlo. I responsabili politici hanno un ruolo preciso”.

    Ma ritengo che i passi avanti siano ancora troppo timidi. Dobbiamo anche dire: dove sono i gruppi della società civile, dove sono gli attivisti, dove sono i sostenitori che stanno affrontando questioni di giustizia climatica, diritti del lavoro, protezione dei dati? Come li includiamo in queste discussioni? Come facciamo partecipare le comunità colpite?

    In altre parole, come possiamo rendere il processo democratico molto più profondo, arrivando a controllare chi si muove al di fuori di ogni forma di regolamentazione? Questo libro sta cercando di porre una domanda centrale: in che tipo di mondo vogliamo vivere?

    Che tipo di futuro sogna?

    Vorrei che si creasse un terreno comune tra i gruppi che lottano per la giustizia climatica e i diritti del lavoro e quelli che si battono per la giustizia razziale. L’orizzonte temporale è davvero breve. Abbiamo a che fare con un pianeta che è già sottoposto a forti tensioni. Stiamo osservando una profonda concentrazione di potere in pochissime mani. Si deve tornare ai primi tempi delle ferrovie per vedere un altro settore così concentrato.

    L’azione collettiva deve porsi l’obiettivo di allargare le forme di responsabilità democratica.  Non è un problema di scelta individuale. Non ci dobbiamo limitare a scegliere il marchio tecnologico più etico dallo scaffale, ma dobbiamo trovare modi per lavorare insieme su queste sfide su scala planetaria.

    Immagine di: Vladan Joler

    Related Posts
    Total
    0
    Share