Una startup sta munendo chatbot e assistenti virtuali della capacità di leggere le vostre espressioni e rispondere di conseguenza.
di Tom Simonite
L’esperienza con il servizio di assistenza automatico della vostra banca sarebbe migliore se poteste guardare negli occhi il chatbot che si sta occupando del vostro conto scoperto? Secondo il professore e imprenditore Mark Sagar, sì.
Sagar ha vinto due Academy Awards per le sue innovative tecniche di visualizzazione digitale usate per creare volti ed espressioni in film come Avatar e King Kong. Oggi, Sagar è professore associato dell’Università di Auckland e CEO di una startup di nome Soul machines, creata per sviluppare volti digitali espressivi da associare ai chatbot di svariati servizi di assistenza ai clienti.
Soul Machines ha già creato un avatar di nome Nadia per il governo australiano. La voce è quella di Cate Blanchett, mentre l’intelligenza artificiale che lo alimenta è il Watson di IBM. Nadia assiste le persone nel recuperare informazioni inerenti i servizi offerti dal governo ai disabili. IBM ha anche sviluppato un secondo prototipo di avatar, di nome Rachel, pensato per i servizi bancari.
Questo chatbot, sviluppato dalla startup SoulMachines, è stato commissionato dal governo australiano per fornire informazioni riguardo i servizi a disposizione degli invalidi.
I movimenti dei volti digitali creati dalla società vengono prodotti attraverso la simulazione dell’anatomia e dei movimenti di muscoli ed altri tessuti in un volto umano. Attraverso una videocamera frontale, gli avatar sono in grado di leggere le espressioni di una persona rivolta verso di loro. Sagar spiega che le persone rivolte a qualcosa di apparentemente umano tendono a confidarsi maggiormente e usare maggiormente la propria espressività, permettendo così alle società di raccogliere più informazioni sulle loro necessità o perplessità.
Gli avatar della società possono essere programmati per reagire alle espressioni facciali di una persona con le loro espressioni, così da creare una illusione di empatia.
Altre società hanno cercato di rilevare le emozioni delle persone analizzandone il tono della voce, le parole o le espressioni. Amazon sta esplorando queste stesse idee nel tentativo di migliorare il suo assistente a comando vocale Alexa.