Nel discorso di apertura di NeurIPS, un’importante conferenza di ricerca sull’intelligenza artificiale, Celeste Kidd, psicologa cognitiva, ha sfidato il pubblico a pensare in modo critico al futuro che si vuole costruire.
di Karen Hao
A uno dei più grandi raduni mondiali di ricercatori di intelligenza artificiale, Celeste Kidd si è rivolta a migliaia di partecipanti in una stanza grande quasi il doppio di un campo di calcio.
“Non esiste una piattaforma neutrale”, ha detto l’autorevole scienziata e figura di spicco del movimento #metoo ai partecipanti alla conferenza NeurIPS, a Vancouver. “Gli algoritmi che sono dietro ai contenuti online hanno un impatto profondo su ciò in cui crediamo”.
Kidd, docente di psicologia all’Università della California, a Berkeley, è nota nel suo campo per aver contribuito in modo importante alla nostra comprensione della teoria della mente: come acquisiamo conoscenze e opinioni. Due anni fa, è diventata famosa anche nel resto del mondo, quando “Time” l’ha nominata Persona dell’anno insieme ad altre donne che hanno denunciato abusi e molestie sessuali.
Sul palco, Kidd ha condiviso cinque lezioni dalle sue ricerche e ha dimostrato in che modo le decisioni dell’industria tecnologica potrebbero influenzare le persone a sviluppare false credenze, per esempio negando il cambiamento climatico. Verso la fine del suo discorso, ha anche condiviso la sua esperienza delle molestie sessuali ricevute dopo la laurea e ha affrontato direttamente alcuni dei malintesi che il movimento #metoo aveva suscitato.
“E’ indubbiamente un momento difficile per gli uomini che vivono nel mondo della tecnologia”, ha detto ai partecipanti alla conferenza, che vedeva una presenza di circa l’80 per cento di uomini. “C’è la sensazione che una carriera possa essere distrutta da episodi imbarazzanti o incomprensioni. Quello che voglio dire oggi a tutti gli uomini nella stanza è che siete in parte vittime anche voi”, ha concluso.
Il suo discorso ha ricevuto una standing ovation, un raro momento nella storia della conferenza.
Le osservazioni di Kidd arrivano in un momento in cui la comunità dell’IA – e l’industria della tecnologia in senso lato – è stata costretta a fare i conti con i danni involontari delle sue tecnologie. Solo nell’ultimo anno, una serie di casi di alto profilo hanno messo in luce come i deepfake possano mettere in cattiva luce le donne, in che modo gli algoritmi possano prendere decisioni discriminatorie in materia di assistenza sanitaria e di credito e in che modo sviluppare modelli di IA può essere immensamente dannoso per l’ambiente.
Allo stesso tempo, la comunità è stata scossa da numerosi scandali di abusi e molestie sessuali, inclusi alcuni seri incidenti negli anni precedenti alla conferenza. Ha anche continuato a confrontarsi con questioni legate alla scarsa presenza di diversità etnica.
Ma il discorso di Kidd ha messo in luce un importante cambiamento che ha iniziato a verificarsi, e che si è sentito palpabilmente nella stanza quella notte. Dopo il suo discorso, decine di persone si sono messe in fila ai microfoni sparsi per la stanza per ringraziarla per aver parlato di questi problemi.
Altre decine si sono radunate attorno a lei dopo la sessione, anche solo per stringerle la mano in segno di gratitudine. Ai partecipanti che ricordano l’incontro annuale di due anni fa, salta agli occhi la presenza di una nuova apertura a riconoscere queste sfide e una rinnovata attenzione per fare meglio.
Il giorno dopo il suo discorso, ho intervistato Kidd per parlare del suo intervento e delle sue speranze per il futuro.
Nel suo discorso, ha concluso con il seguente messaggio: “Non esiste una piattaforma neutrale”. Come è arrivata a questa conclusione?
Si tratta di qualcosa che ho realizzato solo negli ultimi anni, soprattutto grazie ai rapporti con i miei due studenti universitari; non c’è davvero una distinzione tra conoscenza e credenze. In realtà, sono le stesse cose.
Ora ci stiamo muovendo verso la comprensione di come queste dinamiche che abbiamo osservato negli esperimenti di laboratorio si estendono al mondo reale. Quando qualcuno va su Internet non sicuro di ciò in cui dovrebbe credere, cosa ricava da queste ricerche neutrali? Si possono usare gli stessi schemi di idee per cercare di spiegare perché le persone credono che la terra sia piatta e perché queste idee sbagliate non vengano corrette? Non è un’area di riflessione critica su cui ho visto molta attenzione, ma che io invece ritengo molto importante.
Perché è stato importante portare questo messaggio ai partecipanti alla conferenza?
Gran parte di ciò che crediamo ora proviene da fonti online. Soprattutto i bambini: stanno formando i mattoni della conoscenza che in seguito daranno forma a ciò in cui credono. Per i bambini piccoli, c’è anche motivo di aspettarsi che stiano a maggiore contatto con sistemi automatici e contenuti consigliati rispetto agli adulti. Quindi inizialmente sono più a rischio di essere influenzati dall’algoritmo che spinge i contenuti, perché questa è la loro unica scelta.
Il mio discorso era inteso come un messaggio per le persone che lavorano sui sistemi per essere attenti a come queste decisioni di back-end influenzano le credenze di una persona, ma anche la società nel suo insieme. Non credo che ci sia abbastanza sensibilità nella tecnologia su come le decisioni che si prendono dietro le quinte sui contenuti influenzino la vita delle persone.
C’è un grido di battaglia comune quando vengono poste domande su come vengono selezionati i contenuti: l’affermazione che le piattaforme sono neutrali. Credo che non sia una operazione onesta. Le decisioni di back-end che si prendono influenzano direttamente ciò in cui le persone credono ed è un fatto risaputo. Quindi fingere di non saperlo è disonesto.
Quando si agisce sul comportamento delle persone, ciò che si sta facendo è cambiare le loro convinzioni. E quei cambiamenti hanno conseguenze reali e concrete. Quando un genitore cerca informazioni sull’opportunità o meno di vaccinare il proprio figlio, i contenuti offerti fanno la differenza.
Non credo sia ragionevole affermare che non si ha alcuna responsabilità per ciò che una madre fa al proprio figlio, che decida di vaccinarli o meno, perché non era qualcosa che si è preso in considerazione quando si è costruito il sistema. Penso che sia necessario assumersi la responsabilità di considerare quali possano essere le ripercussioni delle decisioni di back-end.
Nelle domande che hanno seguito il suo intervento, Lei ha detto di non aver mai parlato allo stesso tempo delle sue esperienze di ricerca e delle molestie sessuali in un forum pubblico. Perché di solito separa questi due argomenti e perché ora ha deciso di parlarne?
Inizierò dalla fine. Ho fatto un’eccezione alla regola in questo caso perché pensavo che fosse molto importante che questa comunità ascoltasse il mio messaggio. L’informatica è un campo in cui le donne hanno avuto grandissime difficoltà a emergere. C’è un forte interesse nei loro confronti nelle prime fasi e poi tutto si perde nel nulla. Spesso questa situazione è legata alle minori opportunità di tutoraggio per le donne.
So che gli uomini che lavorano in campo informatico sono in larga parte preoccupati di essere equivocati dalle donne. La conseguenza è che le donne stanno perdendo opportunità di formazione, ma anche gli uomini stanno perdendo il contributo di idee e innovazione che le donne porterebbero. Studi empirici mostrano che la diversità porta a tassi più elevati di innovazione. E l’opportunità di parlare contemporaneamente con gran parte di questi uomini durante una conferenza, mi sembrava che fosse un’occasione da non perdere.
Il motivo per cui di solito non li mescolo è che non ho scelto io quello che mi è successo durante il mio primo anno post laurea a Rochester. Non ho scelto quale sarebbe stata la risposta dell’università. Volevo una carriera in campo scientifico e voglio proteggerla, quindi evito di parlare di quegli episodi. Ma sono anche consapevole che la maggior parte delle persone non ha l’opportunità, non ha una piattaforma per parlare.
Di solito ciò che accade alle persone che sono state molestate sessualmente all’inizio della loro carriera e che hanno avuto le istituzione contro di loro è che scompaiono. Non mi sentirei bene a non fare nulla. Le persone che hanno acquisito un privilegio devono usarlo in tutte le situazioni. Ho avuto questa opportunità di tenere un discorso a NeurIPS e l’ho sfruttata per aiutare le donne più giovani ad avere coraggio.
Era preoccupata delle possibili reazioni?
Ovviamente. Ma avere paura della risposta non è un motivo per non parlare. Sono in una posizione relativamente privilegiata in questa particolare conferenza perché penso che le pressioni per far tacere le persone siano maggiori nelle aziende di quanto non siano nel mondo accademico, almeno in questo momento. Se fossi preoccupata di essere licenziata, sarebbe una ragione in più per tacere.
L’Università della California, a Berkeley, mi ha sempre sostenuto e incoraggiato nella lotta per l’equità. Posso dire queste cose senza paura di perdere il lavoro e non essere in grado di pensare tranquillamente al futuro di mio figlio. E questa è l’altra ragione per cui mi sentivo di dover parlare.
Ovviamente alcune persone sulle 13.000 presenti potrebbero fraintendermi e arrabbiarsi. Non è possibile far capire a tutti cosa si ha esattamente in mente.
Al di là della separazione tra la ricerca e l’impegno attivo, il suo discorso per me affronta la stessa tematica: come sviluppare una tecnologia responsabile assumendosi la responsabilità delle decisioni e delle azioni intraprese.
Esattamente. Come ha detto Lei, nella comunità dell’IA si parla spesso delle implicazioni etiche, c’è più consapevolezza delle connessioni tra tecnologia e società. Penso che parte di ciò provenga dal fatto che la comunità è diversificata e coinvolge molte persone di diverse provenienze e attente a come le tecnologie progettate per un determinato gruppo demografico possono effettivamente danneggiare le popolazioni svantaggiate. Spero che si continui in questa direzione. L’unico modo per fare progressi è parlarci.
(rp)