Seguici
Iscriviti alla nostra newsletter

    5 passi per migliorare l’AI nel 2021

    L’intelligenza artificiale è oggi al centro dell’attenzione degli organi legislativi, ma ancora manca un chiaro quadro regolamentare.

    di Karen Hao

    Un anno fa, senza sapere cosa avrebbe portato il 2020, ho scritto un articolo sul passaggio cruciale della comunità di AI. L’anno precedente, il 2018, aveva visto una serie di seri problemi, come gli incidenti con le auto a guida autonoma e gli strumenti di sorveglianza sul lavoro. Nel 2019, al centro dell’attenzione si è ritrovata l’etica dell’AI. Ma parlare non era sufficiente. Servivano azioni tangibili. Due mesi dopo, il coronavirus ha chiuso il mondo.

    Nella nostra nuova realtà socialmente lontana e remota, queste conversazioni sui danni degli algoritmi sono diventate all’ordine del giorno. I sistemi che erano stati ai margini, come gli algoritmi di scansione facciale di HireVue e gli strumenti di sorveglianza sul posto di lavoro, sono diventati dominanti. Altri, come gli strumenti per monitorare e valutare gli studenti, hanno guadagnato la scena. 

    Ad agosto, dopo lo spettacolare fallimento del governo britannico nel sostituire gli esami di persona con un algoritmo per l’ammissione all’università, centinaia di studenti si sono riuniti a Londra per cantare: “Fanculo l’algoritmo”. “Questo sta diventando il grido di battaglia del 2020”, ha twittato Deb Raji, che si occupa delle responsabilità dell’AI, quando un manifestante di Stanford lo ha urlato di nuovo in risposta a una nuova debacle pochi mesi dopo.

    Allo stesso tempo, non si è rimasti con le mani in mano. Una grande vittoria è stata il divieto o la sospensione della vendita di sistemi di riconoscimento facciale alle forze dell’ordine da parte di Amazon, Microsoft e IBM, dopo le proteste globali contro la brutale uccisione di George Floyd. È stato il culmine di due anni di battaglie di ricercatori e attivisti per i diritti civili per dimostrare gli effetti inefficaci e discriminatori delle tecnologie aziendale. 

    Un altro cambiamento è stato piccolo, ma notevole: per la prima volta in assoluto, NeurIPS, una delle più importanti conferenze di ricerca sull’AI, ha richiesto ai ricercatori di presentare una dichiarazione sull’impatto etico dei loro studi. Di fronte a una maggiore attenzione normativa e dell’opinione pubblica sull’influenza dell’AI, voglio fare un breve elenco delle mie priorità nel settore dell’intelligenza artificiale nel prossimo anno.

    Ridurre l’influenza aziendale nella ricerca

    I giganti della tecnologia hanno un controllo sproporzionato sulla direzione della ricerca sull’AI, che si è mossa nel suo complesso verso l’acquisizione di sempre più dati e grandi modelli, con diverse conseguenze: incrementare l’impatto sul clima dei progressi dell’AI, impedire ai laboratori con risorse limitate di partecipare a ricerche sul campo e portare a un’indagine scientifica meno attenta a una gamma di altri possibili approcci. Come dimostra il licenziamento di Timnit Gebru da parte di Google, i giganti della tecnologia sono pronti a dettare le regole.

    Ma gran parte dell’influenza aziendale si riduce al denaro e alla mancanza di finanziamenti alternativi. Come ho scritto l’anno scorso nel mio profilo di OpenAI, il laboratorio inizialmente ha cercato di fare affidamento solo su donatori indipendenti e ricchi. La scommessa si è rivelata insostenibile e quattro anni dopo OpenAI ha firmato un accordo di investimento con Microsoft. La mia speranza è che vedremo più governi riempire questo vuoto per fornire opzioni di finanziamento non legate al settore della difesa. Non sarà una soluzione perfetta, ma sarà un inizio. I governi sono legati all’interesse pubblico, non solo ai risultati.

    Mettere al centro il buon senso

    La travolgente attenzione sui modelli più grandi e più discutibili ha messo in ombra uno degli obiettivi centrali della ricerca sull’AI: creare macchine intelligenti che non si limitino a riprodurre, ma siano in grado di comprendere il significato. Mentre l’influenza esercitata dalle aziende spiega in buona parte questa tendenza, ci sono anche altri colpevoli. Le conferenze di ricerca e le pubblicazioni di revisione tra pari danno molta importanza al raggiungimento di risultati “all’avanguardia”. Ma lo stato dell’arte è spesso misurato male da test che possono essere superati con più dati e modelli più grandi.

    Non è che i modelli su larga scala non possano mai raggiungere un livello di comprensione simile al buon senso. Questa rimane ancora una domanda aperta. Ma ci sono altre strade di ricerca che meritano maggiori investimenti. Alcuni esperti hanno scommesso sull’AI neurosimbolica, che combina l’apprendimento profondo con sistemi di conoscenza simbolica. Altri stanno sperimentando tecniche più probabilistiche, che utilizzano molti meno dati, ispirati dalla capacità di un bambino umano di imparare da pochissimi esempi.

    Nel 2021, spero che il settore riallinei i suoi incentivi per dare la priorità alla comprensione rispetto alla previsione. In tal modo, non solo si potrebbe arrivare a sistemi tecnicamente più solidi, ma i miglioramenti avrebbero anche importanti implicazioni sociali. La suscettibilità degli attuali sistemi di apprendimento profondo a essere ingannati, per esempio, mina la sicurezza delle auto a guida autonoma e pone pericolose possibilità per le armi autonome. L’incapacità dei sistemi di distinguere tra correlazione e causalità è anche alla radice della discriminazione algoritmica.

    Dare potere ai ricercatori emarginati

    Se gli algoritmi codificano i valori e le prospettive dei loro creatori, un ampio spaccato dell’umanità dovrebbe essere presente al tavolo quando vengono sviluppati. Non ho visto prove migliori di questo rispetto al dicembre del 2019, quando ho partecipato a NeurIPS. Quell’anno, con un numero record di donne e oratori e partecipanti di minoranza, ho potuto assistere a un confronto serrato sul l’influenza dell’AI sulla società.

    A quel tempo lodavo la comunità per i suoi progressi. Ma il comportamento di Google nei confronti di Gebru, una delle poche donne nere di spicco nell’industria, ha mostrato quanta strada c’è ancora da fare. La diversità non si misura con i numeri se le persone non sono autorizzate a portare la loro esperienza vissuta nel loro lavoro. Sono ottimista, tuttavia, che la marea stia cambiando. Il punto critico segnato dal licenziamento di Gebru si è trasformato in un momento critico di riflessione per l’industria. Spero che questo slancio porti a un cambiamento sistemico e duraturo.

    Assumere le prospettive delle comunità coinvolte

    C’è anche un altro gruppo da prendere in seria considerazione. Una delle tendenze più entusiasmanti dello scorso anno è stata l’emergere del machine learning partecipativo. È una prospettiva allettante reinventare il processo di sviluppo dell’AI per includere coloro che alla fine diventano soggetti agli algoritmi.

    A luglio, il primo seminario della conferenza dedicato a questo nuovo approccio ha raccolto una vasta gamma di idee sulle possibili prospettive future. I suggerimenti includevano nuove procedure di governance per sollecitare il feedback della comunità, nuovi metodi di model auditing per informare e coinvolgere il pubblico, e riprogettazione dei sistemi di intelligenza artificiale per dare agli utenti un maggiore controllo sui setting.

    La mia speranza per il 2021 è vedere alcune di queste idee esplorate e adottate sul serio. Facebook sta già iniziando: se proseguirà consentendo al suo comitato di sorveglianza esterno di apportare modifiche vincolanti alle politiche di moderazione dei contenuti della piattaforma, la struttura di governance potrebbe diventare un meccanismo di feedback degno di emulazione.

    Elaborare i regolamenti

    Finora, gli sforzi di base hanno portato il movimento a mitigare i danni algoritmici e a ritenere responsabili i giganti della tecnologia. Ma spetterà alle autorità nazionali e internazionali erigere barriere permanenti. La buona notizia è che i legislatori di tutto il mondo stanno cambiando le regole. Negli Stati Uniti, i membri del Congresso hanno già introdotto progetti di legge per affrontare il riconoscimento facciale, i pregiudizi dell’AI e i deepfake. Molti di loro hanno anche inviato una lettera a Google a dicembre esprimendo la loro intenzione di continuare a perseguire questo regolamento.

    Quindi la mia ultima speranza per il 2021 è che alcune di questi punti diventino realtà. È ora di codificare ciò che abbiamo imparato negli ultimi anni e di allontanarci dalla finzione dell’autoregolamentazione.

    Immagine di: Getty

    (rp)

    Related Posts
    Total
    0
    Share