L’intelligenza artificiale permea settori fondamentali della nostra società consentendo una rapida accelerazione dello sviluppo, ma allo stesso tempo gli algoritmi stanno già creando danni reali.
di Karen Hao
Da quando si costruiscono robot, la paura è sempre stata che un giorno avrebbero potuto distruggerci. Stephen Hawking ha notoriamente avvertito che l’intelligenza artificiale potrebbe significare la fine della civiltà. Per molti ricercatori di intelligenza artificiale, questi timori sono già realtà, ma non nella forma ritenuta possibile dalla maggior parte delle persone. L’AI serve oggi per esaminare i candidati a un posto di lavoro, diagnosticare malattie e identificare sospetti criminali, ma invece di prendere le decisioni più efficienti o giuste, spesso perpetua i pregiudizi degli umani da cui è stata addestrata.
William Isaac è un ricercatore senior del team di etica e società di DeepMind, una startup di intelligenza artificiale acquisita da Google nel 2014. È anche co-presidente della conferenza Fairness, Accountability and Transparency, il principale incontro annuale di esperti di intelligenza artificiale, scienziati sociali e avvocati che lavorano in questo settore. In questa intervista, ho parlato con Isaac delle sfide attuali e potenziali che lo sviluppo dell’IA deve affrontare, nonché sulle soluzioni.
L’AI superintelligente ci dovrebbe preoccupare?
Molti dei problemi sollevati da questa domanda hanno una lunga storia e presentano rischi concreti quando li analizziamo a fondo. Le minacce si sovrappongono, sia che si tratti di tecniche di polizia predittiva e valutazione del rischio a breve termine, sia di sistemi più scalabili e avanzati a lungo termine. Ci sono tre ambiti da prendere in considerazione.
Il primo è relativo all’allineamento dei valori: come si progetta effettivamente un sistema in grado di comprendere e implementare le preferenze e i valori di una popolazione? Negli ultimi anni abbiamo assistito a tentativi da parte di responsabili politici, industriali e altri di incorporare valori nei sistemi tecnologici su larga scala, in aree come la polizia predittiva, la valutazione del rischio, le assunzioni di manodopera.
È chiaro che al loro interno sono presenti pregiudizi che riflettono quelli della società più ampia. Il sistema ideale equilibrerebbe tutte le esigenze delle diverse parti interessate. Ma come fa la società a conciliare la propria storia con l’aspirazione? Mentre lottiamo per trovare le risposte, la stessa domanda diventerà esponenzialmente più complicata. Risolvere il problema non è solo qualcosa per il futuro, ma per l’immediato.
Il secondo sarebbe ottenere un beneficio sociale dimostrabile. Fino a questo punto ci sono ancora poche prove empiriche che convalidano l’idea che le tecnologie di intelligenza artificiale permetteranno di raggiungere l’ampio vantaggio sociale a cui aspiriamo.
Infine, penso che la più grande sfida che affronta chiunque lavori nel settore sia organizzare il lavoro di supervisione e definire le responsabilità.
Come si superano questi rischi e queste sfide?
Anche in questo caso vedo tre possibili aree di intervento. La prima è costruire una intelaiatura collettiva per l’innovazione e la supervisione responsabili, soffermandosi sulle forme di disallineamento, pregiudizio o danno e assicurandosi di sviluppare processi efficaci per coinvolgere tutti i gruppi nella fase di progettazione tecnologica. I gruppi che sono stati storicamente emarginati spesso sono quelli che non trovano risposte alle loro esigenze.
La seconda è accelerare lo sviluppo degli strumenti sociotecnici per svolgere effettivamente questo lavoro. Ora, non ne abbiamo molti a disposizione.
La terza è destinare maggiori finanziamenti e formazione a ricercatori e professionisti, anche di estrazione umanistica, per condurre questo lavoro. Non solo nell’apprendimento automatico, ma anche in STS [scienza, tecnologia e società] e scienze sociali. E’ necessaria una comunità di ricercatori per comprendere davvero la gamma di potenziali danni che i sistemi di intelligenza artificiale arrecano e come mitigarli con successo.
I ricercatori di AI sono consapevoli di questi problemi?
Nel 2016, ricordo, la Casa Bianca aveva appena pubblicato un rapporto sui big data e c’era un forte senso di ottimismo sul fatto che avremmo potuto usare i dati e l’apprendimento automatico per affrontare alcuni problemi sociali irrisolti. Allo stesso tempo, c’erano ricercatori nella comunità accademica che avevano segnalato in modo molto generico: “Facciamo attenzione, questi sistemi potrebbero causare dei danni”. Ma in gran parte la denuncia è rimasta lettera morta.
Da allora, abbiamo svolto molte più ricerche mirate a queste modalità di applicazione dei sistemi di apprendimento automatico alla società. Una volta che le persone hanno iniziato a vedere come si sviluppava questa interazione, si sono rese conto: “Ok, questo non è solo un rischio ipotetico. È una vera minaccia. Ora, si sta cominciando ad affrontare questioni sistemiche più ampie.
Quindi è ottimista riguardo ai vantaggi dell’AI su larga scala?
Certamente. Gli ultimi anni hanno rafforzato le mie speranze. Si pensi al riconoscimento facciale come esempio. C’è stato il grande lavoro di Joy Buolamwini, Timnit Gebru e Deb Raji nel far emergere le disparità nella accuratezza dei sistemi di riconoscimento facciale tra diversi gruppi (cioè, dimostrare che questi sistemi erano molto meno accurati sui volti femminili neri rispetto a quelli maschili bianchi).
C’è la protesta della società civile in difesa dei diritti umani contro l’applicazione errata del riconoscimento facciale. C’è infine il grande lavoro che i responsabili politici, gli enti regolatori e i gruppi della comunità dal basso stavano facendo per comunicare esattamente quali fossero i potenziali rischi e per chiedere chiarezza su quali sarebbero stati i benefici per la società. Questo è un modello di come potremmo immaginare di impegnarci in altri settori che vedono l’AI in prima fila.
Ma la sfida con il riconoscimento facciale è che abbiamo dovuto prendere in considerazione le questioni etiche e quelle relative ai sistemi di valori mentre stavamo distribuendo pubblicamente la tecnologia. In futuro, spero che alcune di queste conversazioni avvengano prima che emergano potenziali danni.
Come sogna il futuro dell’AI?
Potrebbe bilanciare le ineguaglianze sociali. Per esempio, se ci fossero insegnanti o tutor di intelligenza artificiale disponibili per studenti e comunità in cui l’accesso all’istruzione e alle risorse è molto limitato, sarebbe un progresso considerevole.
Ho frequentato una scuola di specializzazione nel Michigan durante il disastro ambientale dovuto alla contaminazione da piombo delle acque del fiume Flint. Quando sono emerse le responsabilità dei tubi di piombo, le registrazioni sui sistemi di tubazioni erano su schede nei sotterranei di un edificio. La mancanza di accesso alle tecnologie aveva posto questi sistemi in una posizione di significativo svantaggio. Ciò implica che le persone che sono cresciute in quelle comunità, oltre il 50 per cento delle quali sono afroamericane, sono cresciute in un ambiente in cui non ottengono servizi e risorse di base.
Quindi la domanda è: se applicate in modo appropriato, queste tecnologie potrebbero migliorare il loro tenore di vita? L’apprendimento automatico avrebbe potuto permettere di identificare e riparare i tubi di piombo. A oggi, come sappiamo, Flint non ha ancora rimosso tutti i tubi. L’apprendimento automatico non risolverà tutte le sfide, ma la speranza è di sviluppare strumenti che rafforzino queste comunità e cambino in modo significativo le loro vite. Questo è ciò a cui penso quando si parla di ciò che stiamo costruendo.
Immagine: William Isaac si occupa dei pregiudizi nelle tecniche di polizia predittiva dal 2016.David Vintiner
(rp)