La nuova partnership è pensata anche per scongiurare regolamentazioni indesiderate.
di Will Knight
Quando si tratta di regolare l’intelligenza artificiale, i leader tecnologici credono che i numeri facciano la forza.
Una nuova organizzazione di nome Partnership on Artificial Intelligence to Benefit People and Society cercherà di instaurare un dialogo pubblico e creare linee guida per sviluppare l’intelligenza artificiale in maniera tale da evitare che il sistema si comporti in modo sbagliato. Fra le società coinvolte figurano Google e la sussidiaria DeepMind, Facebook, Amazon, Microsoft e IBM. La partnership si fonda su otto principi, inclusa l’idea che l’intelligenza artificiale dovrebbe servire quante più persone possibile, che il pubblico dovrebbe essere coinvolto nel suo sviluppo, che la ricerca dovrebbe essere condotta in modo aperto e che i sistemi di AI dovrebbero essere in grado di spiegare il proprio ragionamento.
Il fatto che rivali tanto acerrimi si siano uniti dimostra l’importanza che le società danno alla necessità di calmare i timori e le speculazioni sui potenziali impatti dell’intelligenza artificiale. Queste imprese stanno traendo enormi guadagni dai progressi nel campo, e non intendono vedere la propria industria soggetta a severe regolamentazioni governative che rallenterebbero o altererebbero il progresso della tecnologia in un momento critico di evoluzione. Allo stesso tempo, gli ultimi e recenti sviluppi hanno sollevato timori sulla possibilità che i sistemi di AI reagiscano alle persone in maniera discriminatoria, svantaggiosa o fuorviante.
“Condividiamo tutti il dovere di portare avanti questo campo in maniera riflessiva, positiva e, soprattutto, etica”, dice Mustafa Suleyman, cofondatore di Google DeepMind e co-presidente interim dell’organizzazione. “Gli impatti positivi dell’intelligenza artificiale dipenderanno non solo dalla qualità dei nostri algoritmi, ma dal livello di coinvolgimento pubblico, di trasparenza e discussione etica attorno ad essa”.
L’intelligenza artificiale sta avanzando a un passo così frenetico da legittimare i timori sui possibili effetti indesiderati del suo utilizzo. Un sistema di apprendimento automatico, programmato per identificare delle malattie facendo riferimento a dati errati o incompleti, ad esempio, potrebbe discriminare delle persone. Le società coinvolte in questa partnership riconoscono che effetti simili potrebbero portare a pesanti ripercussioni.
“L’intelligenza artificiale è incredibilmente importante per Amazon”, spiega Rolf Herbrich, direttore dell’apprendimento automatico per il gigante dell’e-commerce. “E il più grande patrimonio nella customer experience è la fiducia del cliente”.
Non è chiaro come questa organizzazione interagirà con il pubblico o con i ricercatori intenti nello sviluppo di AI. Secondo Suleyman, non cercherà di forzare delle linee guida, ma guiderà la discussione aperta.
Esistono anche timori legittimi sul potenziale di AI e tecnologie associate, quali la robotica, di incrementare disoccupazione e disuguaglianza (vedi “Uomini e donne o macchine?”). Recenti progressi hanno persino portato ad alcuni bizzarri e futuristici avvertimenti sui rischi che l’AI potrebbe presentare per l’umanità intera (vedi “Our Fear of Artificial Intelligence”). I tecnologi del settore temono che questi avvertimenti scatenino una violenta polemica ed ispirino i governi ad applicare stringenti norme.
“Con l’iperbole che ha travolto l’AI negli ultimi anni, si teme che in risposta a questa agitazione il governo si faccia coinvolgere dalla disinformazione”, dice Eric Horovits, direttore responsabile di Microsoft Research e secondo co-presidente dell’organizzazione.
Il governo ha indicato il proprio interesse a garantire che l’intelligenza artificiale non abbia conseguenze indesiderate, coordinando una serie di workshops mirati all’esplorazione dei suoi potenziali effetti.
Alcuni quesiti etici sulla AI saranno più complessi da risolvere. Potrebbe rivelarsi complesso, ad esempio, lo sviluppo di sistemi in grado di contemplare molteplici prospettive etiche. Questo problema è stato posto, principalmente in maniera teorica, nel merito del comportamento delle automobili a guida autonoma.
L’idea della partenrship è nata durante un evento coordinato a New York da Facebook per discutere dei problemi etici legati all’intelligenza artificiale. Altre società e organizzazione coinvolte nello sviluppo di sistemi di AI, come Apple e l’Allen Institute for Artificial Intelligence, hanno parlato di un coinvolgimento parziale con le attività della Partnership on Artificial Intelligence to Benefit People and Society.
Oren Etzioni, CEO dell’Allen Institute, dice che sarà importante discutere del problema inerente i posti di lavoro che le AI rubano agli esseri umani. E aggiunge che la sfida principale sarà identificare il modo per permettere ai competitori di collaborare assieme efficientemente. “Stiamo parlando di alcune delle più grandi società al mondo”, dice. “Dovranno lavorare assieme”.
(MO)