I dati a disposizione indicano che il suicidio tra i giovani è in aumento e che i social media contribuiscono ad aumentare il numero dei giovani che compiono questi atti estremi di autolesionismo.
di Tanya Basu
Questa settimana Facebook ha annunciato in un post sul blog che sta prendendo provvedimenti per combattere l’epidemia di suicidio giovanile, inclusa la condivisione di dati su come i suoi utenti parlano di suicidio e autolesionismo e assumendo un responsabile delle politiche di sicurezza che si occupi soprattutto di salute e benessere.
Tra i cambiamenti degni di nota nella politica vi è la decisione di Facebook di “non accettare più immagini in cui ci si fa del male”. L’azienda, proprietaria di Instagram, ha affermato che avrebbe anche “[reso] più difficile la ricerca di questo tipo di contenuto e [impedito] che fosse consigliato da Explore”.
Queste iniziative si aggiungono a quelle annunciate a febbraio relative a Instagram che avrebbe iniziato a sfocare le immagini di autolesionismo.
Ma mentre studiano l’aumento del suicidio tra i giovani e applaudono Facebook per l’impegno dichiarato, i ricercatori dicono che non è chiaro come questo tipo di annunci dell’azienda si tradurrà in risultati tangibili.
Negli ultimi anni, l’ipotesi che i social media alimentino una preoccupante ondata di suicidi giovanili ha ricevuto numerose conferme. Sebbene non limitato ai siti social, il fenomeno del contagio suicida – in cui i suicidi segnalati dai media portano ad un aumento dei suicidi o dei tentativi di suicidio – è particolarmente pericoloso, se mescolato con piattaforme digitali progettate per la condivisione virale.
Jeanine Guidry, professore alla School of Media and Culture della Virginia Commonwealth University, afferma che ciò è in parte dovuto al fatto che le ricerche sulla relazione tra social media e suicidio sono in fase di nascita.
In aprile, in uno studio sul “Journal of Communication in Healthcare” sulla natura delle conversazioni sul suicidio su Instagram, Guidry e i suoi colleghi hanno scoperto che i post che menzionavano e mostravano graficamente idee sul suicidio suscitavano un maggiore coinvolgimento rispetto ad altri post.
Purtroppo, le organizzazioni sanitarie pubbliche non hanno mai usato Instagram per aiutare a combattere il suicidio: un’opportunità potenzialmente persa, vista la popolarità della piattaforma tra adolescenti e giovani adulti, afferma Dan Romer, direttore della ricerca dell’Adolescent Communication Institute dell’Università della Pennsylvania.
“Come minimo, questi comportamenti possono sembrare diffusi o normativi”, afferma Romer. “A un livello più serio, potrebbero portare qualcuno che sta pensando di fare quelle cose a imitarli”.
A maggio, insieme ad altri, Romer ha pubblicato uno studio che ha esaminato il modo in cui le immagini di autolesionismo di Instagram hanno colpito oltre 700 adulti tra 18 e 29 anni.
Si è scoperto che fino al mese successivo all’esposizione a tali immagini, il 60 per cento delle persone aveva pensato a cosa avrebbe provato se avesse fatto un atto del genere.
La ricerca ha mostrato anche qualcos’altro: solo il 20 per cento delle persone intervistate ha cercato intenzionalmente contenuti relativi all’autolesionismo su Instagram, il che significa che molti si sono dimostrati sensibili a queste immagini viste accidentalmente. In questi casi, l’impegno di Facebook a rendere più difficile la ricerca di post sull’argomento sarebbe inefficace.
Non è anche chiaro come Facebook intenda raggiungere il suo obiettivo di impedire di vedere immagini di autolesionismo. “Avranno bisogno dell’IA per identificare queste immagini, perché ce ne sono troppe,” afferma Romer. Ma non è affatto facile: “Come si allena l’intelligenza artificiale a considerare i vari gradi di ciò che può rappresentare un problema per le persone?”.
Un’altra parte dell’impegno di Facebook, vale a dire quella di coinvolgere i suoi utenti e i loro amici nella lotta contro il contagio suicida, sembra più promettente. Nella sua ricerca, Guidry dice di aver riscontrato che “a fronte di commenti negativi e cyberbullismo [che porta al suicidio], abbiamo trovato messaggi quasi esclusivamente di supporto: ‘Sono dalla parte tua’, ‘Non sei solo’.
Uno studio recente ha scoperto che gli utenti hanno prontamente segnalato immagini di autolesionismo su Instagram appena ne sono venuti a conoscenza.
Quindi le persone si provano empatia e vogliono aiutare. Romer, tuttavia, non è ancora sicuro di come possano entrare in gioco gli amici: “Come fai a sapere chi è un amico? E come identifichi le persone che potrebbero aiutare? C’è un problema di privacy”.
Il piano di Facebook di assumere un esperto della sicurezza è stato accolto con un diffuso scetticismo. La scelta implica lo sviluppo di una politica globale per “contrastare le azioni e gli individui che minano la sicurezza, la salute e il benessere della nostra comunità globale” e affrontare tematiche – oltre al suicidio e l’autolesionismo – legate a “disturbi alimentari, depressione, ansia, dipendenza, abitudini sane, vaccinazioni e altro ancora”.
“Questo incarico rappresenta una grande sfida. Sarà importante vedere chi lo ottiene”, afferma Romer. “L’unica persona qualificata potrebbe essere qualcuno che si è occupato di prevenzione degli infortuni presso importanti organizzazioni sanitarie come l’OMS o il CDC”.
(rp)