Seguici
Iscriviti alla nostra newsletter

    Il futuro etico dell’IA

    A partire dal 2018 si sono verificati importanti sviluppi nel mondo dell’intelligenza artificiale e decine di aziende e organizzazioni si sono confrontate con il problema delle scelte etiche, ma ora è arrivato il momento di passare ai fatti.

    di Karen Hao

    L’anno scorso, proprio mentre stavo cominciando a occuparmi di intelligenza artificiale per la rivista, nel settore si stavano verificando alcuni episodi inquietanti. Nel 2018 i progressi nella ricerca sull’IA sono stati significativi: dall’apprendimento per rinforzo alle reti antagoniste generative (GAN) alla migliore comprensione del linguaggio naturale. Ma l’anno ha visto anche numerosi esempi del danno che questi sistemi possono causare quando vengono adottati troppo in fretta.

    Una Tesla con l’autopilota ha avuto un incidente mortale e un’auto a guida autonoma di Uber ha ucciso un pedone. I sistemi commerciali di riconoscimento facciale hanno dato pessima prova nella valutazione e identificazione delle persone di colore, ma le aziende tecnologiche hanno continuato a venderli comunque, ai clienti, comprese le forze dell’ordine. 

    All’inizio di quest’anno, riflettendo su questi eventi, ho scritto un articolo, invitando la comunità IA di assumersi la responsabilità di creare, applicare e regolare una tecnologia rispettosa dell’etica.

    In un certo senso, il mio desiderio si è avverato. Nel 2019 si è parlato molto dell’etica dell’IA. Decine di organizzazioni hanno prodotto linee guida etiche per l’IA; le aziende si sono affrettate a mettere in piedi squadre di intelligenza artificiale responsabili e le hanno presentate ai media. 

    È difficile partecipare a una conferenza sull’intelligenza artificiale senza che parte della programmazione sia dedicata a un messaggio relativo all’etica: come possiamo proteggere la privacy delle persone quando l’IA ha bisogno di così tanti dati? Come possiamo potenziare le comunità emarginate invece di sfruttarle? Come possiamo continuare a fidarci dei media di fronte alla disinformazione creata e diffusa algoritmicamente?

    Ma parlare non è abbastanza. Nonostante tutto, le linee guida etiche sull’IA di molte organizzazioni rimangono vaghe e difficili da attuare. Poche aziende possono mostrare cambiamenti tangibili nel modo in cui i prodotti e servizi di IA vengono valutati e approvati. L’azione viene sostituita da promesse superficiali.

    Nell’esempio più evidente, Google ha formato una commissione etica sull’intelligenza artificiale senza alcun effettivo potere di veto sui progetti in discussione e con un paio di membri la cui inclusione ha suscitato polemiche. Le reazioni sono state così accese, che la commissione è stata sciolta immediatamente.

    Nel frattempo, la necessità di una maggiore responsabilità etica è diventata sempre più urgente. Gli stessi progressi compiuti nei GAN nel 2018 hanno portato alla proliferazione di deepfakes sempre più realistici, che ora vengono utilizzati per colpire le donne ed erodere la fiducia delle persone nella veridicità dei documenti e delle prove.

    Nuove scoperte hanno fatto luce sull’impatto climatico dell’apprendimento profondo, ma enti e organizzazioni hanno continuato a sviluppare modelli sempre più grandi e ad alto consumo energetico. Studiosi e giornalisti hanno anche rivelato quante persone lavorano dietro le quinte del sipario algoritmico. L’industria dell’intelligenza artificiale sta creando una classe completamente nuova di lavoratori nascosti — modificatori di contenuti, etichettatrici di dati, trascrittori — che vivono una condizione di sfruttamento brutale.

    Ma non tutto è oscuro: il 2019 è stato l’anno del rifiuto da parte delle comunità delle tecnologie di IA più discutibili. Diverse città – tra cui San Francisco e Oakland, in California e Somerville, nel Massachusetts – hanno vietato l’uso pubblico del riconoscimento facciale e hanno proposto che la legislazione federale lo proibisca al più presto negli alloggi di proprietà pubblica. Anche i dipendenti di giganti della tecnologia come Microsoft, Google e Salesforce protestano contro l’uso dell’IA da parte delle loro aziende per il monitoraggio dei migranti e per la sorveglianza dei droni.

    All’interno della comunità dell’IA, i ricercatori si sono impegnati a combattere i pregiudizi sull’IA e hanno affrontato il problema del consumo energetico. Le aziende hanno investito più risorse nella protezione della privacy degli utenti e nella lotta ai deepfake e alla disinformazione
    Esperti e responsabili politici hanno lavorato insieme per proporre una nuova legislazione volta a frenare le possibili conseguenze indesiderate senza soffocare l’innovazione.

    Alla più grande riunione annuale del settore di quest’anno, sono rimasta sorpresa dal numero di seminari e incontri incentrati sui problemi del mondo reale, sia quelli creati dall’intelligenza artificiale che quelli che invece potrebbe aiutare a risolvere.

    La mia speranza per il 2020 è che l’industria e il mondo accademico sostengano questo slancio e apportino cambiamenti dal basso verso l’alto e dall’alto verso il basso che riallineino lo sviluppo dell’IA. Non dovremmo perdere di vista il sogno che decenni fa ha dato vita al settore: costruire macchine intelligenti in modo che un giorno potessero aiutarci a risolvere alcune delle nostre sfide più difficili.

    Immagine di: Getty Images

    (rp)

    Related Posts
    Total
    0
    Share