Seguici
Iscriviti alla nostra newsletter

    Assistenti virtuali meno ottusi

    Il produttore di chip Nvidia ha realizzato un software per la creazione di algoritmi che renderanno i chatbot più intelligenti.

    di Will Knight

    L’intelligenza artificiale ha fatto passi da gigante negli ultimi dieci anni, ma le macchine hanno ancora problemi a capire le sfumature del linguaggio umano.

    Nvidia, l’azienda che produce i chip per computer che alimentano molti algoritmi IA, pensa che la situazione stia cambiando e vuole essere tra le prime a trarne vantaggio.

    Il suo software semplifica la creazione di programmi di intelligenza artificiale su hardware in grado di utilizzare il linguaggio in modo avanzato. Il nuovo codice potrebbe accelerare lo sviluppo di nuovi algoritmi di linguaggio e migliorare la comunicazione con i chatbot e gli assistenti vocali.

    Nvidia produce già i chip più diffusi per l’addestramento di modelli di intelligenza artificiale di apprendimento profondo, che sono all’avanguardia in attività come la classificazione delle immagini.

    Tradizionalmente, tuttavia, è sempre stato difficile applicare metodi statistici di apprendimento automatico come l’apprendimento profondo alla parola scritta o parlata, perché la lingua è ambigua e complessa.

    Ma ultimamente ci sono stati progressi significativi. La combinazione di due nuovi approcci di Google all’apprendimento profondo delle macchine, noti come Transformer e BERT, si è dimostrata promettente nella traduzione, nelle risposte a domande relative a un testo e persino nella produzione di testi realistici.

    Ciò ha suscitato l’interesse dei mondi accademico e industriale verso i sistemi di apprendimento automatico applicati alla lingua.

    “Transformer e BERT hanno avuto un impatto enorme”, afferma Alexander Rush, professore all’Università di Harvard, specializzato nell’elaborazione del linguaggio naturale (NLP), vale a dire un campo di studi che unisce informatica, IA e linguistica.

    “È un settore all’avanguardia in ogni benchmark e consente a un laureando di produrre modelli ad alte prestazioni in cinque righe di codice”.

    Nvidia è sempre stata abile a seguire le ultime tendenze nella ricerca sull’IA. Se questa sua intuizione si rivelerà corretta, gli assistenti vocali non si limiteranno più a rispondere semplicemente ai comandi, ma organizzeranno un discorso coerente.

    I chatbot, nel frattempo, potrebbero diventare meno oscuri, mentre la funzione di completamento automatico presente in programmi e app potrebbe iniziare a suggerire interi paragrafi anziché solo la parola successiva.

    “Abbiamo una grande richiesta di modelli linguistici”, afferma Bryan Catanzaro, vicepresidente di Nvidia per l’apprendimento profondo applicato. “Se si osservano i ritmi del progresso in questi studi, appare ovvio indirizzare gli investimenti verso il settore”.

    Nvidia ha sviluppato il suo software ottimizzando numerose parti del processo utilizzato per addestrare i modelli linguistici sulle sue GPU.

    In questo modo ha accelerato il training dei modelli di intelligenza artificiale (da alcuni giorni a meno di un’ora), le prestazioni di questi modelli linguistici (da 40 millisecondi a poco più di 2 millisecondi) e ha formato modelli linguistici molto più grandi, come Megatron, con 8,6 miliardi di parametri.

    Attenzione agli abusi

    I progressi nella lingua possono avere un lato oscuro, però. Algoritmi più intelligenti potrebbero essere utilizzati per produrre una serie di falsi credibili. Altri gruppi di ricerca hanno dimostrato come potenti modelli linguistici possano migliorare la resa realistica del testo prendendo spunto dai materiali presenti su Internet.

    Nvidia ha un piano semplice per prevenire potenziali abusi: non rilascerà Megatron e prevede di affidarsi ai ricercatori per usare i suoi strumenti con cura.

    “Stiamo pubblicando codice che mostra come utilizzare le GPU per addestrare questi modelli di grandi dimensioni”, afferma Catanzaro. “Riteniamo che la comunità utilizzerà questo codice in modo responsabile. In ogni caso, è importante ricordare che modelli di formazione di queste dimensioni richiedono una notevole potenza di calcolo, il che li rende inavvicinabili per la maggior parte delle persone”.

    Anche se i progressi sono costanti, è probabile che passi molto tempo prima che le macchine possano davvero conversare con gli utenti. Il linguaggio è pieno di sfumature per le macchine, in parte a causa della sua complessità compositiva: le parole possono essere organizzate in infinite combinazione per esprimere un concetto.

    La comprensione del significato di una frase spesso richiede anche la conoscenza del senso comune del mondo, qualcosa che i computer non hanno.

    “Stiamo assistendo a un nuovo periodo d’oro nel settore dell’elaborazione del linguaggio naturale”, afferma Oren Etzioni, CEO dell’Allen Institute for Artificial Intelligence (Ai2), un’organizzazione no profit di Seattle dedicata alla ricerca avanzata sull’IA.

    Questo progresso permetterà di migliorare il livello dei chatbot e degli assistenti vocali, dice, anche se ancora carenti di buon senso. “Un assistente vocale utile quanto un abile portiere d’albergo è ancora oltre l’orizzonte”, afferma Etzioni.

    Ai2 ha recentemente lanciato uno strumento, chiamato Grover, che utilizza i progressi della NLP per catturare il testo presumibilmente prodotto dall’intelligenza artificiale.

    Etzioni spiega che i bot ingannano già le persone su Facebook e Twitter. “Le manipolazioni testuali generate automaticamente sono già tra noi”, egli conclude, “ed è probabile che aumenteranno in modo esponenziale”.

    foto: Ms. Tech; immagine originale: Hermon Kardon

    Related Posts
    Total
    0
    Share