All’Argonne National Laboratory, a circa 50 km dal centro di Chicago, gli scienziati cercano di comprendere l’origine e l’evoluzione dell’universo, creare batterie più durature e sviluppare farmaci antitumorali di precisione.
di Karen Hao
Nella scoperta di farmaci, si stima che potrebbero esserci più potenziali molecole con funzione terapeutica rispetto agli atomi nel sistema solare. La ricerca di questi possibili candidati all’interno delle scale temporali umane richiede un calcolo potente e veloce. Fino a poco tempo fa, ciò non era disponibile, rendendo l’ipotesi del tutto impraticabile.
Ma negli ultimi anni, l’IA ha cambiato il gioco. Gli algoritmi di apprendimento profondo eccellono nel trovare rapidamente modelli in pile di dati, accelerando i processi chiave nella scoperta scientifica. Ora, insieme a questi miglioramenti del software, è all’orizzonte anche una rivoluzione hardware.
L’altro giorno, l’Argonne National Laboratory ha annunciato di aver iniziato a testare un nuovo computer della startup Cerebras che promette di accelerare l’addestramento degli algoritmi di deep learning di alcuni ordini di grandezza.
Il computer, che ospita il più grande chip del mondo, fa parte di una nuova generazione di hardware specializzato di IA. “Siamo interessati ad accelerare le applicazioni di intelligenza artificiale che abbiamo per problemi scientifici”, afferma Rick Stevens, direttore del laboratorio di informatica, ambiente e scienze della vita del centro. “Abbiamo enormi quantità di dati e modelli di grandi dimensioni e siamo interessati a migliorare le loro prestazioni”.
Attualmente, i chip più comuni utilizzati nel deep learning sono noti come unità di elaborazione grafica o GPU. Le GPU sono grandi processori paralleli. Prima della loro adozione da parte del mondo dell’IA, erano ampiamente utilizzati per i giochi e la produzione grafica. Per coincidenza, le stesse caratteristiche che consentono loro di renderizzare rapidamente i pixel sono anche quelle che li rendono la scelta preferita per l’apprendimento profondo.
Ma fondamentalmente, le GPU sono di uso generale; mentre hanno alimentato con successo la rivoluzione dell’IA di questo decennio, i loro progetti non sono ottimizzati per il compito. Queste inefficienze limitano la velocità con cui i chip possono eseguire algoritmi di apprendimento profondo e fanno sì che assorbano enormi quantità di energia nel processo.
In risposta, le aziende si sono impegnate strenuamente per progettare nuove architetture di chip adatte per l’IA. Questi chip hanno il potenziale per formare modelli di apprendimento profondo fino a 1.000 volte più veloci delle GPU, con un impiego molto inferiore di energia. Cerebras fa parte della lunga lista di aziende che da allora hanno colto al volo l’opportunità. Altre aziende includono startup come Graphcore, SambaNova e Groq e operatori storici come Intel e Nvidia.
Un nuovo chip IA di successo dovrà soddisfare diversi criteri, afferma Stevens. Come minimo, deve essere 10 o 100 volte più veloce rispetto ai processori generici quando si lavora con i modelli di intelligenza artificiale del laboratorio. Molti dei chip specializzati sono ottimizzati per le applicazioni commerciali di deep learning, come la visione artificiale e il linguaggio, ma potrebbero non funzionare altrettanto bene quando si gestiscono i tipi di dati comuni nella ricerca scientifica.
“Abbiamo molti set di dati di dimensioni superiori”, afferma Stevens, set che intrecciano enormi fonti di dati disparati e sono molto più complessi da elaborare rispetto a una foto bidimensionale. Il chip deve anche essere affidabile e facile da usare e “le persone che usano il chip non dovrebbero perdere tempo a imparare qualcosa di nuovo sul lato della programmazione”, spiega Stevens.
Finora, il computer di Cerebras ha risposto a queste esigenze. Grazie alle dimensioni del chip – è più grande di un iPad e ha 1,2 trilioni di transistor per effettuare calcoli – non è necessario collegare una serie di processori più piccoli, il che può rallentare l’addestramento del modello.
Nei test, ha già ridotto il tempo di formazione dei modelli da settimane a ore. “Vogliamo essere in grado di addestrare questi modelli abbastanza velocemente in modo che lo scienziato che sta facendo la formazione ricordi ancora i momenti iniziali del processo”, afferma Stevens.
Inizialmente, l’Argonne ha testato il computer per la ricerca sui farmaci antitumorali. L’obiettivo è sviluppare un modello di apprendimento profondo in grado di prevedere come un tumore potrebbe rispondere a un farmaco o una combinazione di farmaci.
Il modello può quindi essere utilizzato in due modi: sviluppare nuovi candidati farmacologici che potrebbero mirare a un tumore specifico o prevedere gli effetti di un singolo candidato farmacologico su molti tipi diversi di tumori.
Stevens si aspetta che il sistema di Cerebras acceleri drasticamente sia lo sviluppo sia il dispiegamento del modello di farmaco antitumorale, il che potrebbe comportare l’addestramento del modello centinaia di migliaia di volte e poi eseguirlo miliardi di volte in più per fare previsioni su ogni possibile farmaco.
Spera anche che implementerà la ricerca del laboratorio in altri settori, come i materiali delle batterie e le lesioni traumatiche al cervello. La ricerca sulle batterie comporta lo sviluppo di un modello AI per la previsione delle proprietà di milioni di combinazioni molecolari per trovare alternative alla chimica degli ioni di litio. Il campo delle lesioni traumatiche al cervello implica lo sviluppo di un modello per prevedere le migliori opzioni terapeutiche. È un compito sorprendentemente difficile perché richiede l’elaborazione di così tanti tipi di dati – immagini cerebrali, biomarcatori, testo – in tempi rapidi.
Nel complesso Stevens è entusiasta del potenziale che la combinazione di software IA e avanzamenti hardware porterà alla ricerca scientifica. “Cambierà radicalmente il modo in cui avviene la simulazione scientifica”, egli conclude.
Immagine: Argonne National Laboratory
(rp)