Molti account, creati a febbraio, hanno diffuso e amplificato la disinformazione, tra cui false raccomandazioni mediche e teorie cospirative sull’origine del virus, per spingere in direzione della riapertura dell’America.
di Karen Hao
Kathleen M. Carley e il suo team del Center for Informed Democracy & Social Cybersecurity della Carnegie Mellon University hanno monitorato i bot e la loro influenza sull’informazione. Dai suoi dati emerga che, nei casi delle elezioni statunitensi e in altri paesi, di catastrofi naturali ed eventi politici, il livello di coinvolgimento dei bot si colloca normalmente tra il 10 e il 20 per cento.
Ma in un nuovo studio, i ricercatori hanno scoperto che i bot possono rappresentare tra il 45 e il 60 per cento degli account Twitter che parlano di covid-19. In genere, seguono schemi logori di campagne di influenza coordinate e la loro strategia è in corso da tempo: dall’inizio della crisi, i ricercatori hanno osservato una polarizzazione crescente sull’argomento.
Numerosi fattori potrebbero giustificare questo aumento. La natura globale della pandemia significa che una fascia più ampia di attori è motivata a capitalizzare la crisi come un modo per attuare i loro programmi politici. Anche la disinformazione è ora più coordinata, con diverse imprese disposte ad appoggiare queste campagne di influenza.
Ma non è solo il dato quantitativo che preoccupa Carley, la responsabile dell’istituto. Anche i loro modelli di comportamento sono diventati più sofisticati. I bot sono spesso collegati in rete con altri account, rendendo più semplice la diffusione dei loro messaggi. Sono inoltre impegnati su più fronti per attaccare gruppi a rischio come immigrati e minoranze e aiutano a formare gruppi online che propugnano discorsi d’odio.
Per eseguire la loro analisi più recente, i ricercatori hanno studiato più di 200 milioni di tweet su coronavirus o covid-19, a partire da gennaio. Hanno usato tecniche di apprendimento automatico e analisi di rete per identificare quali account stavano diffondendo disinformazione e quali erano probabilmente gestiti da robot o cyborg (una forma mista di robot e umani).
Il sistema va alla ricerca di 16 diverse manovre che gli account di disinformazione possono eseguire, tra cui il “collegamento” tra due gruppi (collegamento di due comunità online), il “supporto” di un individuo (seguendo l’account per aumentare il livello di influenza percepita della persona) e il “bombardamento” di un gruppo (il cosiddetto nuking, vale a dire le azioni che portano allo smantellamento di una comunità online).
Attraverso l’analisi, hanno identificato più di 100 tipi di articoli fuorvianti su covid-19 e hanno scoperto che non solo i bot stavano guadagnando credibilità e accumulando follower, ma rappresentavano l’82 per cento dei top 50 e il 62 per cento dei 1.000 più influenti retweeter. L’influenza di ciascun account è stata calcolata per riflettere il numero di follower che ha raggiunto, nonché il numero di utenti raggiunti dai suoi follower.
I ricercatori hanno iniziato ad analizzare Facebook, Reddit e YouTube per capire come si diffonde la disinformazione tra le piattaforme. Il lavoro è ancora nelle prime fasi, ma ha già rivelato alcuni schemi inaspettati. In uno di questi studi, i ricercatori hanno scoperto che molti articoli disinformativi provengono da siti Web o blog regolari prima di essere raccolti su diverse piattaforme sociali e amplificate.
Diversi tipi di storie hanno anche differenti fonti. Quelle in cui si sostiene, per esempio, che il virus sia un’arma biologica, provengono principalmente dai cosiddetti siti di “notizie nere”, pagine di notizie false progettate per diffondere disinformazione che spesso vengono eseguite al di fuori degli Stati Uniti. Al contrario, la retorica della “riapertura dell’America” proviene principalmente da blog e pagine di Facebook negli Stati Uniti.
I ricercatori hanno anche scoperto che gli utenti di piattaforme diverse risponderanno a tali contenuti in modi disomogenei. Su Reddit, per esempio, è più probabile che i moderatori eseguano il debug e vietino la diffusione dei messaggi. Quando una campagna coordinata sulla ripartenza dell’America è apparsa su Facebook, gli utenti di Reddit, ha spiegato Carley, hanno iniziato a discutere del fenomeno e a opporvisi dicendo: “Non credete a nessuna di queste cose. Non vi fidate di Facebook”.
Sfortunatamente, non ci sono soluzioni facili a questo problema. Il divieto o la rimozione degli account non funzionerà, in quanto è possibile crearne altri per ognuno che viene eliminato. Il divieto di account che diffondono fatti in modo distorto non risolverà nulla. “Molta disinformazione avviene attraverso allusioni o dichiarazioni prive di fondamento logico, e non è semplice contrastarli”, sostiene Carley.
I ricercatori, la società civile e i governi devono coordinarsi meglio per elaborare politiche efficaci per affrontare alla radice questo problema. “Penso che abbiamo di un ‘gruppo’ centrale di controllo”, conclude Carley, “perché nessuno può farcela da solo”.
(rp)