L’intelligenza artificiale ha un problema: nella ricerca di algoritmi più potenti, i ricercatori utilizzano quantità sempre maggiori di dati e potenza di calcolo e si affidano a servizi cloud centralizzati, generando non solo quantità allarmanti di emissioni di carbonio, ma limitando anche la velocità e la privacy delle applicazioni di IA.
di Karen Hao
Un nuovo filone tecnologico, l’IA a dimensioni ridotte, sta cambiando le carte in tavola. I giganti della tecnologia e i ricercatori accademici stanno lavorando a nuovi algoritmi per “ridurre” i modelli di apprendimento profondo esistenti senza perdere le loro capacità.
Nel frattempo, una generazione emergente di chip di intelligenza artificiale specializzati promette di impacchettare più potenza computazionale in spazi fisici più ristretti e addestrare ed eseguire l’IA con molta meno energia.
Questi progressi stanno iniziando a diventare disponibili per i consumatori. Lo scorso maggio, Google ha annunciato che ora può eseguire Google Assistant sui telefoni degli utenti senza inviare richieste a un server remoto. A partire da iOS 13, Apple gestisce le funzionalità di riconoscimento vocale di Siri e la sua tastiera QuickType localmente sull’iPhone. IBM e Amazon ora offrono anche piattaforme di sviluppo per la creazione e l’implementazione di mini IA.
Tutto ciò potrebbe comportare numerosi vantaggi. I servizi esistenti come gli assistenti vocali, la correzione automatica e le fotocamere digitali miglioreranno e saranno più veloci senza dover eseguire il ping del cloud ogni volta che hanno bisogno di accedere a un modello di apprendimento profondo.
L’IA “in piccolo” renderà anche possibili nuove applicazioni, come l’analisi di immagini mediche su dispositivi mobili o le auto a guida autonoma con tempi di reazione più rapidi. Infine, l’IA localizzata migliora la privacy, poiché i dati personali non devono più lasciare il dispositivo per migliorare un servizio o una funzionalità.
Ma man mano che i vantaggi dell’IA si diffondono, diventerà più arduo affrontare le sue sfide. Potrebbe, infatti, essere più difficile combattere i sistemi di sorveglianza o i video di deepfake, per esempio, ed evitare la proliferazioni di algoritmi discriminatori. Ricercatori, ingegneri e responsabili politici devono ora lavorare insieme per sviluppare controlli tecnici e politici per limitare questi potenziali danni.
Immagine: Julia Dufosse
(rp)