Seguici
Iscriviti alla nostra newsletter

    Facebook addestra assistenti robotici ad ascoltare e vedere

    Il laboratorio di intelligenza artificiale dell’azienda sta lavorando alacremente sulla sua piattaforma di simulazione virtuale per addestrare gli agenti di intelligenza artificiale a svolgere attività nel mondo reale.

    di Karen Hao

    A giugno dello scorso anno, FAIR, il laboratorio di intelligenza artificiale di Facebook, ha rilasciato AI Habitat, una nuova piattaforma di simulazione per la formazione di agenti di intelligenza artificiale che permette a questi ultimi di esplorare vari ambienti virtuali realistici, come un appartamento arredato o un ufficio con più postazioni di lavoro. L’intelligenza artificiale potrebbe quindi essere trasferita in un robot, che acquisirà la capacità di navigare nel mondo reale senza particolari ostacoli.

    Quest’anno, FAIR ha ampliato i confini del suo lavoro sull ‘”intelligenza artificiale incorporata”. In un post sul blog recentissimo, il laboratorio ha annunciato tre ulteriori traguardi raggiunti: due nuovi algoritmi che consentono a un agente di creare e ricordare rapidamente una mappa degli spazi in cui naviga e l’aggiunta di suoni sulla piattaforma per addestrare gli agenti a sentire.

    Gli algoritmi si basano sul lavoro di FAIR a partire da gennaio, quando un agente è stato addestrato in Habitat per navigare in ambienti sconosciuti senza una mappa. Usando solo una fotocamera con rilevamento della profondità, GPS e dati della bussola, ha imparato a muoversi in uno spazio esattamente come un essere umano e trovare il percorso più breve possibile verso la sua destinazione senza esitazioni.

    Il primo di questi nuovi algoritmi può ora costruire una mappa spaziale, ricordandosi allo stesso tempo l’ambiente. Il secondo migliora la capacità dell’agente di mappare lo spazio senza la necessità di visitarne ogni parte. Essendo stato addestrato su un numero sufficiente di ambienti virtuali, è in grado di anticipare come sono distribuiti gli spazi e di spostarsi rapidamente.

    Il laboratorio ha anche creato SoundSpaces, uno strumento di rendering del suono che consente ai ricercatori di aggiungere un’acustica altamente realistica a qualsiasi ambiente Habitat, in grado di riprodurre i suoni prodotti dal contatto con il mobilio o la differenza tra il rumore dei tacchi rispetto alle scarpe da ginnastica su un pavimento. Questa nuova capacità offre ad Habitat la possibilità di addestrare gli agenti a svolgere compiti che richiedono il rilevamento sia visivo che uditivo: per esempio, “Prendi il telefono che squilla” o “Apri la porta dove hanno appena bussato”. (Si veda link)

    Dei tre sviluppi, l’aggiunta della formazione sul suono è la più innovativa, afferma Ani Kembhavi, una ricercatrice di robotica presso l’Allen Institute for Artificial Intelligence. Ricerche simili in passato si sono concentrate maggiormente sul fornire agli agenti la capacità di vedere o rispondere ai comandi di testo. “L’aggiunta dell’audio è un passaggio essenziale”, ella afferma. “Vedo molte attività diverse in cui gli ingressi audio sarebbero molto utili”. La combinazione di visione e suono, in particolare, è “un’area di ricerca sottoesplorata”, afferma Pieter Abeel, direttore del Robot Learning Lab presso l’Università della California, a Berkeley.

    Ciascuno di questi sviluppi, affermano i ricercatori di FAIR, avvicina progressivamente il laboratorio all’obiettivo di produrre assistenti robotici intelligenti in grado di muoversi agilmente ed eseguire compiti sofisticati come cucinare. Ma ci vorrà molto tempo prima di lasciare liberi gli assistenti robot in cucina. Uno dei tanti ostacoli che FAIR dovrà superare è relativo al trasferimento dell’allenamento virtuale nel mondo fisico, il cosiddetto “sim2real”. Quando i ricercatori hanno inizialmente testato i loro algoritmi addestrati virtualmente su robot fisici, il meccanismo non ha funzionato come previsto.

    In futuro, i ricercatori di FAIR sperano di iniziare ad aggiungere capacità di interazione anche ad Habitat. “Immaginiamo che io sia un agente”, dice Kristen Grauman, ricercatrice del FAIR e professore di informatica presso l’Università del Texas, a Austin, che ha diretto parte del lavoro. “Entro e vedo alcuni oggetti. Cosa posso fare con loro? Dove andrei se dovessi preparare un soufflé? Quali strumenti dovrei prendere? Questi tipi di interazioni e persino di modifiche all’ambiente basate sulla manipolazione sono necessarie per innalzare il livello di questo lavoro e noi stiamo lavorando per arrivarci a breve”.

    Immagine di: Facebook AI

    (rp)

    Related Posts
    Total
    0
    Share