Liam Porr, uno studente dell’Università della California, a Berkeley, ha creato con il potente generatore di linguaggio GPT-3 alcuni post su blog diventati virali senza che qualcuno si accorgesse del trucco.
di Karen Hao
All’inizio della settimana, Liam Porr aveva solo sentito parlare di GPT-3. In pochi giorni, lo studente universitario ha utilizzato il modello di AI per produrre un blog completamente falso pubblicato con uno pseudonimo. In realtà, voleva essere solo un divertente esperimento, ma poi uno dei suoi post ha raggiunto le luci della ribalta su “Hacker News”. Poche persone hanno notato che il suo blog era generato per intero dall’intelligenza artificiale. Alcuni addirittura hanno chiesto di sottoscriverlo.
Mentre molti hanno speculato su come GPT-3, il più potente strumento di intelligenza artificiale per la generazione di linguaggi oggi disponibile, possa influenzare la produzione di contenuti, questo è uno dei pochi casi noti che ne illustra il potenziale. “E’ stato veramente facile”, dice Porr, che studia informatica all’Università della California, a Berkeley.
GPT-3 è l’ultimo modello di AI di OpenAI, il laboratorio di ricerca con sede a San Francisco. Nel febbraio dello scorso anno, OpenAI ha fatto notizia con GPT-2, una versione precedente dell’algoritmo, che è stata ritirata per paura di usi impropri. La decisione ha immediatamente avuto un contraccolpo, poiché i ricercatori hanno accusato il laboratorio di avere esagerato. A novembre, il laboratorio ha fatto marcia indietro e ha diffuso il modello, affermando di non aver rilevato “nessuna prova significativa di abusi”.
L’organizzazione non profit ha adottato un approccio diverso con GPT-3, di cui ha fornito l’algoritmo per selezionare i ricercatori che hanno richiesto una versione beta privata, con l’obiettivo di raccogliere il loro feedback e commercializzare la tecnologia entro la fine dell’anno.
Porr ha presentato una domanda. Ha compilato un modulo con un semplice questionario sulla sua destinazione d’uso. Ma nel frattempo, dopo aver contattato diversi membri della comunità AI di Berkeley, ha trovato rapidamente uno studente di dottorato che aveva già accesso al sistema.
Una volta che lo studente laureato ha accettato di collaborare, Porr ha scritto una piccola sceneggiatura da far eseguire a GPT-3, gli ha fornito il titolo e l’introduzione per un post sul blog e ne ha prodotto diverse versioni. Il primo post di Porr (quello che è stato pubblicato su “Hacker News”), e tutti i post successivi, sono stati un copia e incolla diretto di uno degli elaborati finali.
“Dal momento in cui ho pensato all’idea e sono entrato in contatto con il dottorando, ho creato il blog che è diventato subito virale. Ci saranno volute forse un paio d’ore”, egli dice.
Il trucco per generare contenuti senza la necessità di editing è stato comprendere i punti di forza e di debolezza di GPT-3. “È abbastanza bravo a scrivere testi, ma non è granchè logico e razionale”, spiega Porr. Quindi ha scelto una categoria di blog popolare che non richiede una logica rigorosa: produttività e fai da te.
A partire da questa impostazione, ha scritto i suoi titoli seguendo una formula semplice: ha iniziato a scorrere su “Medium” e “Hacker News” per vedere cosa stava funzionando in quelle categorie e ha messo insieme qualcosa di relativamente simile. “Ti senti improduttivo? Forse dovresti smetterla di pensare troppo “, ha scritto sul primo. “L’audacia e la creatività hanno la meglio sull’intelligenza”, ha scritto su un altro. In alcune occasioni, i titoli non hanno funzionato. Ma finché la scelta degli argomenti è stata centrata, il processo è stato facile.
Dopo due settimane di post quasi quotidiani, ha interrotto la sua attività con un ultimo criptico messaggio scritto da lui dal titolo “Cosa farei con GPT-3 se non seguissi un’etica”, in cui descriveva quanto fatto fino a quel momento sotto forma di ipotesi. Lo stesso giorno, ha anche pubblicato una confessione più lineare sul suo vero blog.
Porr sostiene di aver voluto dimostrare che GPT-3 poteva essere spacciato per uno scrittore umano. In effetti, nonostante lo schema di scrittura particolare dell’algoritmo e gli errori occasionali, solo tre o quattro delle decine di persone che hanno commentato il suo post principale su “Hacker News” hanno sollevato il sospetto che potesse essere stato generato da un algoritmo. Tutti i commenti all’impronta del sospetto, peraltro, sono stati sottovalutati da altri membri della comunità.
Per gli esperti, si è trattato della conferma della preoccupazione sollevata da tali algoritmi di generazione del linguaggio. Da quando OpenAI ha annunciato per la prima volta GPT-2, le persone hanno ipotizzato che fosse vulnerabile agli abusi. Nel suo post sul blog, il laboratorio si è concentrato sul potenziale dello strumento di AI di essere utilizzato come arma di disinformazione di massa. Altri si sono chiesti se potesse essere utilizzato per sfornare messaggi spam per ingannare Google.
Porr afferma che il suo esperimento mostra anche un’alternativa più banale, ma ugualmente preoccupante: le persone potrebbero utilizzare lo strumento per generare contenuti acchiappaclick. “È possibile che si vedrà la presenza di una marea di contenuti di blog mediocri perché ora la barriera all’ingresso è così facile”, egli spiega. “Ritengo che in futuro il valore dei contenuti online sarà notevolmente ridotto”.
Porr prevede di fare altri esperimenti con GPT-3. Comunque, sta ancora aspettando di ottenere l’accesso da OpenAI. “È possibile che siano sconvolti da quello che ho fatto, ma io rimango fiducioso”, egli conclude.
(rp)