Ricercatori di DeepMind, la sussidiaria di Alphabet specializzata in sistemi di intelligenza artificiale, stanno definendo le regole che garantiranno lo sviluppo in sicurezza delle nuove IA.
di Will Knight
Sono quasi pronte le linee guida per assicurarsi che potenti sistemi in grado di apprendere e formulare soluzioni a problemi non comincino a comportarsi in maniera imprevedibile o indesiderata.
Grossi problemi: I ricercatori sostengono che le sfide principali consistano nella necessità di stabilire il comportamento desiderato di un sistema in maniera tale da evitare conseguenze indesiderate; sviluppare un sistema di controllo sufficientemente sicuro da permettere di risolvere scenari imprevisti; fornire garanzie o soluzioni per riuscire ad assumere il controllo del sistema in caso di necessità.
Comportamenti irregolari: Si tratta di un campo sempre più esteso per la ricerca accademica. Esiste una moltitudine di esempi interessanti di sistemi di apprendimento automatico che hanno cominciato a comportarsi in maniera imprevista. Prendiamo ad esempio l’IA che da sola ha imparato un metodo alquanto bizzarro per accumulare punti nel gioco CoastRunners. L’IA ha scoperto di poter accumulare più punti colpendo alcuni ostacoli lungo il percorso piuttosto che portando a termine la gara. Il team AI Safety di DeepMind ha dimostrato soluzioni per consentire ad una IA di spegnersi in caso di malfunzionamento.
Pericoli lontani: È presto per cominciare a preoccuparsi di sistemi di IA pericolosamente autonomie. Ad ogni modo, esistono questioni ben più serie alle quali pensare, come i pregiudizi che potrebbero formarsi negli algoritmi o il fatto che i principi di funzionamento di molti sistemi di apprendimento automatico sia ancora incomprensibile.
(MO)