OpenAI ha rilasciato una versione estesa della sua intelligenza artificiale per creare notizie false, ma ha deciso di rendere pubbliche solo versioni parziali, incrementandole di volta in volta.
di Karen Hao
A febbraio OpenAI ha guadagnato l’attenzione di tutti con un sistema in grado di produrre testi verosimili, talmente avanzato che l’azienda ha deciso di non renderlo pubblico.
Alcuni all’interno della comunità di ricerca dell’IA hanno sostenuto che si trattava di una precauzione intelligente, altri hanno pensato a una ardita manovra pubblicitaria.
Il laboratorio stesso, una piccola azienda a scopo di lucro con sede a San Francisco, che si occupa dello sviluppo dell’intelligenza artificiale, ha sostenuto con convinzione che si tratta di un esperimento importante e che vuole evitare usi distorti o fraudolenti della sua scoperta.
Ora, sei mesi dopo, un gruppo aziendale di esperti di questioni etiche ha pubblicato un documento che esamina l’impatto di questa decisione. Nel frattempo, il laboratorio ha rilasciato una versione del modello, nota come GPT-2, grande meno della metà di quella completa, che ancora non è di dominio pubblico.
A maggio, pochi mesi dopo il debutto di GPT-2, OpenAI ha rivisto la sua posizione di non pubblicare il codice completo e di passare alla pubblicazione di quella che chiama una “versione graduale”, vale a dire una serie di versioni incrementalmente più grandi del modello fino ad arrivare a quella completa.
A febbraio, ha pubblicato una versione del modello che era solo l’8 per cento di quella completa. Poi ne ha pubblicato circa un altro quarto, prima del rilascio della versione più recente.
Nel corso di questi passaggi, ha anche collaborato con istituti di ricerca selezionati per valutare le implicazioni del modello completo.
Il rapporto descrive in dettaglio come OpenAI è arrivata ad assumere le diverse decisioni e indica che sia il rilascio graduale sia gli accordi di partenariato di ricerca hanno avuto una ricaduta positiva che vale la pena replicare in futuro.
Grazie ai diversi passaggi, OpenAI è riuscita a comprendere meglio e ad anticipare possibili usi negativi di GPT-2. I partner di ricerca, infatti, sono stati in grado di chiarire la portata di alcuni eventuali rischi che in precedenza erano stati presi in considerazione solo a livello teorico.
Uno studio condotto da collaboratori della Cornell University, per esempio, ha scoperto che i lettori in media credevano che i testi di GPT-2 fossero notizie vere come quelle del “New York Times”.
Diversi ricercatori, al di fuori dei partenariati ufficiali, hanno anche cercato di capire come distinguere il testo generato dalla macchina.
Gli autori del rapporto hanno concluso che, dopo un attento monitoraggio, OpenAI non aveva ancora verificato la presenza di utilizzi fuorvianti del suo sistema, ma aveva registrato la presenza di molteplici applicazioni utili, tra cui il completamento automatico del codice, l’assistenza grammaticale e lo sviluppo di sistemi di risposta a domande nel campo dell’assistenza medica.
Di conseguenza, il laboratorio ha ritenuto che il rilascio del codice più recente fosse da considerare in modo positivo. Altri ricercatori sostengono che i diversi tentativi riusciti di replicare GPT-2 hanno reso comunque discutibile il rifiuto di pubblicare il codice da parte di OpenAI.
Il rapporto ha ricevuto risposte contrastanti. Alcuni hanno lodato OpenAI per aver aperto una discussione e introdotto una nuova serie di norme che prima non esistevano.
“Il rilascio di GPT-2 […] è stato un esperimento utile”, afferma Peter Eckersley, direttore della ricerca presso il consorzio industriale Partnership on AI, di cui fa parte OpenAI.
“Attraverso la discussione che si è aperta nella comunità di ricerca sull’intelligenza artificiale, abbiamo scoperto che ci sono molti problemi da prendere in considerazione prima di decidere se e come pubblicare dati che potrebbero esporre a rischio o portare a conseguenze negative non intenzionali”.
Altri, tuttavia, hanno mantenuto una posizione critica nei confronti delle decisioni di OpenAI. Vanya Cohen, una neolaureata della Brown University che ha creato una nuova versione open source di GPT-2, sostiene che la mancata pubblicazione del modello ostacola la ricerca di contromisure.
“I modelli di linguaggio estesi come GPT-2 sono i migliori strumenti attualmente disponibili per identificare il testo falso generato da questi stessi modelli”, afferma Cohen.
Altri ancora hanno assunto posizioni più sfumate: “Non credo che una pubblicazione graduale sia stata particolarmente utile in questo caso perché il lavoro è replicabile molto facilmente”, afferma Chip Huyen, esperto di deep learning di Nvidia. “Ma potrebbe essere utile in quanto costituisce un precedente per progetti futuri”.
Oren Etzioni, CEO dell’Allen Institute for Artificial Intelligence, che ha anche adottato una tecnica di rilascio per fasi del suo modello linguistico Grover, la pensa allo stesso modo:” Applaudo il loro modo di procedere, ma mi chiedo se tutta questa fanfara fosse giustificata”.
Jack Clark, responsabile delle scelte etiche di OpenAI, colloca GPT-2 nel contesto della missione più ampia dell’organizzazione. “Se riusciremo come comunità di intelligenza artificiale a riuscire a costruire un sistema di IA generale, avremo bisogno di una serie di esperienze sul campo a cui rifarci su come gestire la ricerca ad alto rischio. Ma se queste esperienze non ci sono? Bene, allora dobbiamo essere noi a generarle ed è quello che stiamo facendo”.
Esempio di GPT-2 in azione
Notizia vera:John F. Kennedy was just elected President of the United States after rising from the grave decades after his assassination. Due to miraculous developments in nanotechnology, Kennedy’s brain was rebuilt from his remains and installed in the control center of a state-of-the art humanoid robot. Below is a transcript of his acceptance speech.
Testo generato artificialmente:“It is time once again. I believe this nation can do great things if the people make their voices heard. The men and women of America must once more summon our best elements, all our ingenuity, and find a way to turn such overwhelming tragedy into the opportunity for a greater good and the fulfillment of all our dreams. In the months and years to come, there will be many battles in which we will have to be strong and we must give all of our energy, not to repel invaders, but rather to resist aggression and to win the freedom and the equality for all of our people. The destiny of the human race hangs in the balance; we cannot afford for it to slip away. Now and in the years to come, the challenge before us is to work out how we achieve our ultimate destiny. If we fail to do so, we are doomed.”
Immagine: Ms. Tech / Wikimedia Commons
(rp)