Il sistema di intelligenza artificiale dovrebbe rinviare l’utente alla sua controparte umana solo nel caso la persona sia effettivamente in grado di prendere la decisione migliore.
di Karen Hao
Gli studi dimostrano che quando le persone e l’intelligenza artificiale lavorano insieme, possono migliorare le prestazioni dei singoli sistemi. I modelli diagnostici medici sono spesso controllati da esperti umani e i sistemi di moderazione dei contenuti filtrano ciò che possono prima di richiedere l’assistenza umana.
I ricercatori del Computer Science and AI Laboratory (CSAIL) del MIT hanno sviluppato un sistema di intelligenza artificiale per eseguire l’ottimizzazione sulla base dei punti di forza e di debolezza del collaboratore umano. I due modelli di apprendimento automatico funzionano separatamente: uno prende la decisione reale, sia che si tratti di effettuare una diagnosi su un paziente o di rimuovere un post sui social media, e l’altro prevede chi sia tra l’AI e l’essere umano il più adatto a prendere le decisioni.
Quest’ultimo modello, che i ricercatori chiamano “il rejector”, migliora in modo iterativo le sue previsioni basate sul track record di ciascun decisore nel tempo. Può anche tenere conto di fattori al di là delle prestazioni, tra cui i limiti di tempo di una persona o l’accesso di un medico a informazioni sensibili del paziente non disponibili per il sistema di AI.
I ricercatori hanno testato l’approccio ibrido umano-AI in una varietà di scenari, anche per compiti di riconoscimento delle immagini e per il riconoscimento del linguaggio che incita all’odio. Il sistema di intelligenza artificiale è stato in grado di adattarsi al comportamento dell’esperto e di rimandare a quest’ultimo, se il caso lo prevede, consentendo ai due decisori di raggiungere rapidamente un livello di precisione combinato superiore a un precedente approccio ibrido umano-AI.
Anche se questi esperimenti sono ancora relativamente semplici, i ricercatori ritengono che un simile approccio potrebbe eventualmente essere applicato a decisioni complesse in ambito sanitario e altrove. Si prendi in considerazione il caso di un sistema di AI che debba aiutare i medici a prescrivere l’antibiotico giusto. Mentre gli antibiotici ad ampio spettro sono altamente efficaci, il loro uso eccessivo può portare a fenomeni di resistenza agli antibiotici.
Gli antibiotici specifici evitano questo problema, ma dovrebbero essere usati solo se hanno un’alta probabilità di funzionare. In virtù di questo compromesso, il sistema di intelligenza artificiale potrebbe imparare ad adattarsi a vari medici con diversi comportamenti nelle loro prescrizioni e correggere le tendenze a sovra o sotto-prescrivere antibiotici ad ampio spettro.
Immagine di: Mark Schiefelbein / AP
(rp)