Yann LeCun, responsabile del settore IA di Facebook, ritiene che l’apprendimento autonomo porterà alla prossima rivoluzione dell’intelligenza artificiale.
di Karen Hao
A sei mesi, un bambino non rimarrà sorpreso se un camion giocattolo cade da un tavolino e si libra in aria. Ma se si esegue lo stesso esperimento solo due o tre mesi dopo, lo stesso bambino si renderà immediatamente conto che c’è qualcosa non va. Ha appreso il concetto di gravità.
“Nessuno spiega al bambino che gli oggetti dovrebbero cadere”, afferma Yann LeCun, responsabile di IA di Facebook e docente alla New York University, durante un webinar organizzato dall’Association for Computing Machinery, un’associazione internazionale che raccoglie scienziati informatici. Considerando che i bambini non hanno un controllo motorio sofisticato, ipotizza LeCun, “molto di quello che apprendono sul mondo è attraverso l’osservazione”.
Questa teoria potrebbe avere importanti implicazioni per i ricercatori che lavorano sull’intelligenza artificiale.
L’apprendimento profondo, la serie degli algoritmi di intelligenza artificiale che ha dato il via alla rivoluzione più recente del settore, ha fatto passi da gigante nel fornire alle macchine capacità percettive come la visione. Ma non è riuscito a dotarle di un ragionamento sofisticato, basato su un modello concettuale della realtà.
In altre parole, le macchine non capiscono veramente il mondo che li circonda, il che le rende incapaci di interagire con esso. Nuove tecniche stanno aiutando a superare questo limite, per esempio mettendo a disposizione delle macchine una sorta di memoria di lavoro in modo che, mentre ricavano i dati dall’esperienza, possano accumulare informazioni di cui fare uso nelle interazioni future.
Ma LeCun crede che sia solo un pezzo del puzzle e aggiunge:”Ovviamente stiamo sbagliando qualcosa”. Un bambino può riconoscere un elefante dopo aver visto due foto, mentre gli algoritmi di deep learning devono vederne migliaia, se non milioni.
Un adolescente può imparare a guidare con 20 ore di lezioni e riesce a evitare incidenti senza doverne necessariamente avere uno, mentre gli algoritmi di apprendimento per rinforzo (una sottocategoria dell’apprendimento approfondito) devono sostenere decine di milioni di prove, compresi molti gravi fallimenti.
La risposta, spiega LeCun, è nella poco considerata sottocategoria di apprendimento profondo conosciuta come apprendimento non supervisionato. Mentre gli algoritmi basati sull’apprendimento supervisionato e rinforzato vengono addestrati a raggiungere un obiettivo attraverso l’input umano, quelli non supervisionati estraggono i pattern nei dati interamente da soli (LeCun preferisce il termine “apprendimento autonomo” perché utilizza essenzialmente parte dei dati dell’addestramento per prevedere cosa accadrà nella fase successiva).
Negli ultimi anni, tali algoritmi hanno conquistato una posizione di primo piano nell’elaborazione del linguaggio naturale grazie alla loro capacità di trovare le relazioni tra miliardi di parole. Questa caratteristica si rivela utile per costruire sistemi di previsione del testo come il completamento automatico o la generazione di un testo convincente.
Ma la stragrande maggioranza della ricerca di intelligenza artificiale in altri settori si è concentrata sull’apprendimento supervisionato o rinforzato.
LeCun ritiene che i rapporti di forza dovrebbero essere capovolti. “Tutto ciò che impariamo come esseri umani – quasi tutto – viene appreso attraverso l’apprendimento autonomo. Solo in piccole dosi sono necessari l’apprendimento supervisionato e l’apprendimento di rinforzo”, spiega LeCun. “Se l’apprendimento automatico, o l’AI, è una torta, la fetta più grande è costituita dall’apprendimento autonomo”.
Cosa significa in termini pratici? I ricercatori dovrebbero concentrarsi sulla successione temporale. In altre parole, addestrare le reti neurali di grandi dimensioni a prevedere la seconda parte di un video dopo aver visto la prima metà.
Anche se non tutto può essere previsto, si tratta comunque dell’abilità fondamentale che si cela dietro la capacità di un bambino di capire che un camion non può volare. “La si potrebbe definire una simulazione di quanto avviene nella nostra testa”, continua LeCun.
Una volta che la ricerca ha sviluppato tecnologie per affinare queste abilità, ci saranno anche ricadute sul piano pratico. “È una strategia vincente fare previsioni video quando si parla di auto a guida autonoma, perché è necessario sapere in anticipo che cosa faranno le altre auto nelle strade”, dice LeCun.
In definitiva, l’apprendimento autonomo aiuterà le macchine a sviluppare un modello generale che possa prevedere possibili evoluzioni del mondo. LeCun è fiducioso: “La prossima rivoluzione dell’IA non sarà basata sulla supervisione”.
Immagine: Getty
(rp)