Seguici
Iscriviti alla nostra newsletter

    Le tecniche di riconoscimento delle emozioni vanno regolamentate

    I ricercatori di Emotion AI affermano che le applicazioni commerciali delle tecnologie dell’IA potrebbero portare a conseguenze negative per i consumatori, in mancanza di regole ben precise.

    di Angela Chen e Karen Hao

    Forse qualcuno ha sentito parlare di sistemi di IA che conducono interviste o ne è stato protagonista in prima persona. Aziende come HireVue affermano che il loro software è in grado di analizzare le interviste video per stabilire un “punteggio per l’assunzione” di un candidato. Gli algoritmi non valutano solo le espressioni del viso e la postura del corpo, ma dicono anche ai datori di lavoro se l’intervistato è motivato o è collaborativo. Queste valutazioni potrebbero avere un grande impatto sul futuro di un candidato.

    Negli Stati Uniti e in Corea del Sud, dove le assunzioni assistite dall’IA sono sempre più diffuse, i consulenti di carriera ora addestrano i nuovi laureati e le persone in cerca di lavoro a sostenere interviste con un algoritmo. Questa tecnologia viene anche implementata sui bambini nelle aule ed è stata utilizzata negli studi per rilevare la scarsa attendibilità dei video nelle aule di tribunale.

    Ma molte di queste promesse non sono supportate dal consenso scientifico. Non esistono studi efficaci e sottoposti a verifica dei pari che dimostrino che l’analisi della postura corporea o delle espressioni facciali possa aiutare a scegliere i migliori lavoratori o studenti (in parte perché le aziende sono riservate sui loro metodi).

    Di conseguenza, l’hype sul riconoscimento delle emozioni, che dovrebbe rappresentare un mercato da 25 miliardi di dollari entro il 2023, ha provocato una reazione da parte di esperti di etica in campo tecnologico secondo i quali la tecnologia potrebbe sollevare gli stessi tipi di problemi di discriminazione come gli algoritmi che determinano a priori chi condannare o a chi affittare un’abitazione.

    Il battage pubblicitario preoccupa anche i ricercatori. Molti concordano sul fatto che il loro lavoro – che utilizza vari metodi (come l’analisi di micro-espressioni o la voce) per discernere e interpretare le espressioni umane – viene cooptato e utilizzato in applicazioni commerciali che non hanno una seria base scientifica. A loro parere, la mancanza di regolamentazione da parte del governo non è solo un male per i consumatori, ma anche per la ricerca.

    Il buono e il cattivo

    Il riconoscimento delle emozioni, un sottoinsieme dell’affective computing, è ancora una tecnologia nascente. Mentre i ricercatori dell’IA hanno testato i confini di ciò che possiamo e non possiamo quantificare riguardo al comportamento umano, la scienza delle emozioni ha continuato a svilupparsi. Esistono più teorie, per esempio, sul fatto che le emozioni possano essere distinte in modo discreto o cadere in un continuum.

    Nel frattempo, le stesse espressioni possono significare cose diverse in culture diverse. A luglio del 2019, un meta-studio ha concluso che non è possibile giudicare le emozioni semplicemente guardando il viso di una persona. Lo studio è stato ampiamente discusso (anche in questa pubblicazione), spesso con titoli che suggeriscono che “il riconoscimento delle emozioni non può essere attendibile“.

    I ricercatori che si occupano del riconoscimento delle emozioni sono già a conoscenza di questa limitazione. Quelli con cui abbiamo parlato sono stati attenti a chiarire ciò che il loro lavoro può e non può fare. Molti hanno sottolineato che il riconoscimento delle emozioni non può effettivamente valutare le emozioni e le esperienze interne di un individuo. Può solo stimare come le emozioni di quell’individuo possano essere percepite dagli altri o suggerire le tendenze prevalenti, basate sulle reazioni più diffuse nella popolazione.

    “Nessun ricercatore serio affermerebbe che è possibile sapere cosa pensano le persone”, afferma Elisabeth André, esperta di affective computing all’Università di Augusta. I ricercatori hanno anche notato che il riconoscimento delle emozioni va oltre la semplice osservazione del viso, e deve necessariamente analizzare la postura del corpo, l’andatura e prevedere l’uso di sensori biometrici e audio per raccogliere più dati olistici.

    Queste distinzioni sono importanti: ridimensionano applicazioni come HireVue, che affermano di valutare la competenza intrinseca di un individuo, ma ne sostengono altre, come le tecnologie che mirano a trasformare le macchine in collaboratori e compagni più intelligenti per gli umani (HireVue non ha risposto a una richiesta di commento). Un robot umanoide potrebbe rispondere al sorriso: un’azione di rispecchiamento che gli umani usano spesso per rendere le interazioni più naturali.

    Un dispositivo indossabile potrebbe ricordare a una persona di riposare se ha rilevato livelli superiori di cortisolo, l’ormone dello stress, rispetto a quelli basali. Nessuna di queste applicazioni richiede un algoritmo per valutare i pensieri, ma si affida solo alla stima di una risposta adeguata alla richiesta. Inoltre, non prende decisioni di alto livello sulla vita di un individuo, diversamente dagli algoritmi per decidere sull’assunzione o meno di un lavoratore. “Se vogliamo che i computer e i sistemi informatici ci aiutino, sarebbe positivo se avessero un’idea precisa di quello che proviamo”, afferma Nuria Oliver, responsabile dei dati presso la DataPop Alliance, un think tank senza scopo di lucro.

    Ma gran parte di questa sfumatura si perde quando la ricerca sul riconoscimento delle emozioni viene utilizzata per creare applicazioni commerciali redditizie. Gli stessi algoritmi di monitoraggio dello stress in un dispositivo indossabile potrebbero essere utilizzati da un’azienda che cerca di assicurarsi chi è capace di lavorare a ritmi sostenuti. I confini tra sfruttamento commerciale e ricerca sono difficili da stabilire, anche per aziende come Affectiva, fondata da ricercatori che si occupano di privacy ed etica, che ha venduto la sua tecnologia a HireVue.

    La richiesta è di regolamentare il settore

    A dicembre, l’istituto di ricerca AI Now ha chiesto il divieto delle tecnologie di riconoscimento delle emozioni “in decisioni importanti che incidono sulla vita delle persone“. È una delle prime richieste di vietare una tecnologia che ha ricevuto meno attenzione normativa rispetto ad altre forme di intelligenza artificiale, anche se il suo utilizzo nella selezione lavorativa e nelle aule di tribunale potrebbe avere conseguenze gravi.

    Al contrario, il Congresso ha appena tenuto la sua terza udienza sul riconoscimento facciale in meno di un anno e la tematica è diventata un problema centrale nelle elezioni americane del 2020Gli attivisti stanno lavorando per boicottare le tecnologie di riconoscimento facciale e numerosi deputati stanno riconoscendo la necessità di una regolamentazione sia nel settore privato sia in quello pubblico.

    Per l’affective computing non vi sono state altrettante campagne e gruppi di lavoro dedicati e i tentativi di regolamentazione sono stati limitati. Una legge dell’Illinois che regola l’analisi dell’intelligenza artificiale dei video nei colloqui di lavoro è entrata in vigore a gennaio e alla Federal Trade Commission è stato chiesto di indagare su HireVue, anche se non è ancora chiaro se la richiesta avrà un seguito.

    Molti ricercatori ritengono che un divieto sia eccessivo, ma concordano sul fatto che anche un vuoto normativo sia dannoso. “Abbiamo processi chiaramente definiti per certificare che determinati prodotti che consumiamo, alimenti o farmaci che siano, sono sicuri”, dice Oliver. “Non abbiamo gli stessi meccanismi di controllo per la tecnologia”. A suo parere, le aziende le cui tecnologie possono influenzare in modo significativo la vita delle persone devono dimostrare di soddisfare un determinato standard di sicurezza.

    Rosalind Picard, professore del MIT Media Lab che ha co-fondato Affectiva e un’altra startup di affective computing, Empatica, fa eco a questo sentimento. Per un modello di regolamentazione esistente, fa riferimento alla Employee Polygraph Protection Act che limita l’uso dei rilevatori di bugie, essenzialmente una tecnologia di questo ramo dell’IA. Per esempio, la legge proibisce alla maggior parte dei datori di lavoro privati di utilizzare poligrafi e non consente ai datori di lavoro di chiedere informazioni sui risultati dei test del rivelatore di bugie.

    Picard suggerisce che ogni utilizzo di tali tecnologie dovrebbe essere opzionale e che le aziende dovrebbero essere tenute a rivelare come sono state testate le loro tecnologie e quali sono i loro limiti. Da parte sua, Meredith Whittaker, ricercatrice presso la New York University e condirettore di AI Now, sottolinea la differenza tra ricerca e commercializzazione.

    “Non stiamo mettendo in discussione l’intero campo dell’affective computing”, ella afferma. “Chiamiamo in causa la diffusione non regolamentata, non convalidata e scientificamente infondata delle tecnologie di riconoscimento a scopi commerciali.

    Un divieto di utilizzare il riconoscimento delle emozioni in applicazioni come le assunzioni sui posti di lavoro contribuirebbe a limitare questo fenomeno. Se la ricerca conferma che le tecnologie funzionano come sostengono le aziende, allora si può eliminare il divieto.

    Altri regolamenti sarebbero comunque necessari per proteggere le persone perché ci sono altri aspetti da considerare, sostiene Whittaker, oltre alla semplice credibilità scientifica. “Dobbiamo garantire, quando questi sistemi vengono utilizzati in contesti sensibili, che siano utilizzati in modo equo”, ella afferma, “e che non stiano portando ad un aumento delle asimmetrie di potere tra le persone che li usano e le persone che li subiscono”.

    Immagine: Franziska Barczyk

    (rp)

    Related Posts
    Total
    0
    Share