Seguici
Iscriviti alla nostra newsletter

    L’AI fa consulenza agli adolescenti in crisi

    Il Trevor Project, la hotline americana per i giovani LGBT, si sta affidando a un chatbot basato su GPT-2 per aiutare gli adolescenti in difficoltà, anche se ha introdotto limiti rigorosi al suo utilizzo nei contatti diretti.

    di Abby Ohlheiser e Karen Hao

    I consulenti che fanno volontariato presso il Trevor Project devono essere adeguatamente preparati per affrontare la loro prima conversazione con un adolescente LGBTQ che potrebbe pensare al suicidio. Uno dei modi in cui si esercitano è parlare con personaggi immaginari come “Riley”, un sedicenne del North Carolina che si sente depresso. Con un membro del team che interpreta la parte di Riley, i tirocinanti possono approfondire situazioni differenti: l’adolescente è ansioso di fare coming out con la famiglia, ne ha parlato con gli amici e non è andata bene, ha sperimentato pensieri suicidi in passato, e magari anche nel presente.

    Ora, però, Riley non è interpretato da un dipendente del Trevor Project, ma dall’intelligenza artificiale. Questa versione di Riley – addestrata su migliaia di trascrizioni passate di giochi di ruolo tra i consulenti e il personale dell’organizzazione – deve essere incoraggiata ad aprirsi, replicando una situazione che possa mettere alla prova ciò che i tirocinanti hanno imparato sui modi migliori per aiutare gli adolescenti LGBTQ. L’obiettivo è aiutare Riley a sviluppare un percorso per acquisire fiducia in se stesso. 

    Le hotline emergenziali e i servizi di chat partono da una promessa fondamentale: contattaci e potrai parlare con una persona in carne e ossa che può aiutarti. Ma la necessità può superare la capacità anche dei servizi di maggior successo. Il Trevor Project ritiene che 1,8 milioni di giovani LGBTQ in America prendano seriamente in considerazione il suicidio ogni anno. I 600 consulenti esistenti per i suoi servizi basati su chat non sono in grado di gestire tale richiesta. 

    Ecco perché il gruppo, come un numero crescente di organizzazioni per la salute mentale, si è rivolto a strumenti basati sull’intelligenza artificiale per soddisfare la domanda. È uno sviluppo logico, ma solleva contemporaneamente domande su come l’attuale tecnologia di intelligenza artificiale possa funzionare in situazioni in cui sono in gioco le vite delle persone vulnerabili. 

    Assumersi dei rischi e valutarli

    “Non ci eravamo proposti e non ci proponiamo di progettare un sistema di intelligenza artificiale che prenderà il posto di un consulente o che interagirà direttamente con una persona che potrebbe essere in crisi”, afferma Dan Fichter, responsabile dell’ AI e dell’engineering del Trevor Project. Questa connessione umana è importante in tutti i servizi di salute mentale, ma potrebbe essere particolarmente importante per chi ci contatta. Secondo una ricerca dell’organizzazione, nel 2019 i giovani LGBTQ con almeno un adulto accettante nella loro vita avevano il 40 per cento in meno di probabilità di denunciare un tentativo di suicidio nell’anno precedente. 

    Il gioco di ruolo formativo basato sull’intelligenza artificiale, chiamato simulatore di contatto di crisi e supportato dal denaro e dalle competenze tecnologiche di Google, è il secondo progetto che l’organizzazione ha sviluppato utilizzando un algoritmo di apprendimento automatico per determinare chi è a maggior rischio di pericolo (ha testato diversi altri approcci, inclusi molti che non utilizzavano l’intelligenza artificiale, ma l’algoritmo ha semplicemente fornito le previsioni più accurate su chi aveva maggiore necessità di aiuto).

    La valutazione del rischio basata sull’intelligenza artificiale non è una novità per i servizi di prevenzione del suicidio: il Department of Veterans Affairs utilizza a sua volta l’apprendimento automatico per identificare i veterani a rischio nelle sue pratiche cliniche, come riportato dal “New York Times” alla fine dell’anno scorso. 

    Le opinioni variano sull’utilità, l’accuratezza e il rischio dell’utilizzo dell’AI in questo modo. In ambienti specifici, l’intelligenza artificiale può essere più accurata degli umani nella valutazione del rischio di suicidio delle persone, sostiene Thomas Joiner, un professore di psicologia alla Florida State University che studia il comportamento suicida. Nel mondo reale, con più variabili, l’AI sembra funzionare come gli esseri umani. Quello che può fare, tuttavia, è valutare più persone a un ritmo più veloce. 

    Pertanto, è meglio usarla per aiutare i consulenti umani, non per sostituirli. Il Trevor Project fa ancora affidamento sugli esseri umani per eseguire valutazioni complete del rischio sui giovani che utilizzano i suoi servizi. E dopo che i consulenti hanno finito i loro giochi di ruolo con Riley, quelle trascrizioni vengono riviste da una persona. 

    Come funziona il sistema

    Il simulatore di contatto in caso di crisi è stato sviluppato perché i giochi di ruolo richiedono molto tempo al personale, spesso oltre il normale orario di lavoro, anche se la maggior parte dei consulenti prevede di fare volontariato durante i turni notturni e nei fine settimana. Ma anche se l’obiettivo era formare più consulenti più velocemente e adattarsi meglio ai programmi dei volontari, l’efficienza non era l’unica ambizione. 

    Gli sviluppatori volevano che il gioco di ruolo fosse naturale e che il chatbot si adattasse agilmente agli errori dei volontari. Gli algoritmi di elaborazione del linguaggio naturale, che recentemente erano diventati davvero bravi a imitare le conversazioni umane, sembravano adatti alla sfida. Dopo aver testato due opzioni, il Trevor Project ha optato per l’algoritmo GPT-2 di OpenAI.

    Il chatbot utilizza GPT-2 per le sue capacità di conversazione di base. Questo modello è formato su 45 milioni di pagine dal web, che gli insegnano la struttura di base e la grammatica della lingua inglese. Il Trevor Project lo ha quindi addestrato ulteriormente su tutte le trascrizioni delle precedenti conversazioni di gioco di ruolo di Riley, che hanno fornito al bot i materiali di cui aveva bisogno per imitare il personaggio.

    Durante tutto il processo di sviluppo, il team è rimasto sorpreso dalle prestazioni del chatbot. Non esiste un database che memorizzi i dettagli della biografia di Riley, ma il chatbot è rimasto coerente perché ogni trascrizione riflette la stessa trama. Ma ci sono anche compromessi nell’utilizzo dell’AI, specialmente in contesti sensibili con comunità vulnerabili. GPT-2 e altri algoritmi del linguaggio naturale come questo sono noti per incorporare idee profondamente razziste, sessiste e omofobe

    Più di un chatbot ha avuto questi comportamenti. Il più recente è Lee Luda, un chatbot sudcoreano, che interpretava il ruolo di uno studente universitario di 20 anni. Dopo aver rapidamente guadagnato popolarità e interagito con un numero sempre maggiore di utenti, ha iniziato a utilizzare insulti per descrivere le comunità queer e quelle dei disabili.

    Il Trevor Project ne è consapevole e ha progettato modi per limitare il potenziale di problemi. Mentre Lee Luda avrebbe dovuto conversare con gli utenti su qualsiasi cosa, Riley si concentra solo su alcuni aspetti. I volontari non si allontaneranno troppo dalle conversazioni su cui sono stati formati, il che riduce al minimo le possibilità di comportamenti imprevedibili.

    Da umano a umano

    Questa non è la prima volta che il campo della salute mentale cerca di sfruttare il potenziale dell’intelligenza artificiale per fornire assistenza etica e inclusiva senza danneggiare le persone per cui è progettato. I ricercatori hanno sviluppato metodi promettenti per rilevare la depressione da una combinazione di segnali visivi e uditivi. I “robot” terapeutici, sebbene non equivalenti a un professionista umano, vengono proposti come alternative per coloro che non possono accedere a un terapeuta o si trovano a disagio  nel confidarsi con una persona

    Ognuno di questi sviluppi, e altri simili, richiedono di pensare alle caratteristiche che devono possedere gli strumenti di intelligenza artificiale quando si entra in rapporto con persone vulnerabili. L’idea condivisa sembra essere che a oggi la tecnologia non è realmente adatta a sostituire l’aiuto umano. 

    Tuttavia, Joiner, il professore di psicologia, dice che questa situazione potrebbe cambiare nel tempo. Anche se la sostituzione di consulenti umani con copie di intelligenza artificiale appare attualmente una cattiva idea, “ciò non significa che i limiti siano permanenti”, egli afferma. Le persone “hanno già amicizie e intrattengono rapporti” con i servizi di intelligenza artificiale. 

    Nel frattempo, Riley non si confronterà mai con i giovani che scrivono al Trevor Project, ma servirà sempre e solo come strumento di formazione per i volontari. “La connessione da uomo a uomo tra i nostri consulenti e le persone che ci contattano è essenziale per tutto ciò che facciamo”, conclude Kendra Gaunt, responsabile dei dati e del prodotto AI del gruppo. 

    Immagine di: Ms Tech / Unsplash / Pexels

    (rp)

    Related Posts
    Total
    0
    Share