Social media e autolesionismo
Uno studio condotto da Digital Accountability, un’agenzia privata indipendente danese che si occupa di sicurezza informatica e uso responsabile dei dati, dichiara che i social media aprono la strada alle reti di autolesionismo tra gli under 18. Nel mirino dell’indagine danese si trova Meta, la società statunitense che gestisce varie piattaforme social online, tra cui Instagram. Secondo i ricercatori, infatti, la funzione di moderazione, ovvero di revisione e filtraggio, dei contenuti autolesionistici presenti su Instagram potrebbe rivelarsi ancora insufficiente.
Impatto dei social media sull’autolesionismo
Con l’approvazione dell’Online Safety Act del 2023 nel Regno Unito e del Regolamento dell’Unione Europea 2022/2065 sui servizi digitali (Digital Services Act, DSA), ratificati per garantire agli utenti uno spazio online sicuro e responsabile, i giganti dei social media tra cui Meta, TikTok e Snapchat hanno dichiarato la scorsa estate di attivare nuove misure per frenare la diffusione dei contenuti autolesionistici sulle loro piattaforme (NBC News, 2024). Bambini e adolescenti che condividono immagini cruente, suggerimenti ed espedienti in fatto di autolesionismo non sono un fenomeno nuovo per i social media. Un corpo crescente di studi sviluppato nell’ultimo decennio suggerisce l’esistenza di un legame tra diffusione dell’autolesionismo e utilizzo dei social network nei giovani (Chen et al., 2024; Tørmoen et al., 2023; Twenge et al., 2018; O’Connor et al., 2014; Daine et al., 2013). Nonostante alcune revisioni sistematiche abbiano segnalato che l’uso dei social media possa fornire agli utenti supporto e senso di comunità, altri studi osservano come i social possano contribuire a una sorta di effetto di normalizzazione dell’autolesionismo (Biernesser et al., 2020; Marchant et al, 2021). Questo vale in particolare nei giovani che già sperimentano difficoltà nella loro salute mentale (Tørmoen et al., 2023).
In risposta a tale fenomeno, Meta ha dichiarato di servirsi dell’intelligenza artificiale per individuare e rimuovere automaticamente e proattivamente i contenuti relativi all’autolesionismo. L’azienda tecnologica afferma di rimuovere circa il 99% dei contenuti dannosi prima che vengano segnalati. La ricerca danese smentisce le affermazioni di Meta e afferma che l’algoritmo di Instagram potrebbe, al contrario, contribuire attivamente alla creazione e alla diffusione di reti pro-autolesionismo (Bryant, 2024).
Digital Accountability contro Instagram: i risultati dello studio
Nell’ambito del suo studio, Digital Accountability ha creato una falsa rete autolesionista su Instagram, attivando dieci profili privati di utenti fake con età sia inferiore che superiore ai 18 anni. L’agenzia danese ha in questo modo ideato una rete credibile di profili di utenti potenzialmente interessati all’autolesionismo. Obiettivo dello studio era testare l’affermazione di Meta secondo cui Instagram è in grado di rimuovere i contenuti autolesionistici con l’intelligenza artificiale. In un periodo di quattro settimane, infatti, i ricercatori hanno condiviso attraverso i dieci profili un totale di 85 post con contenuti autolesionistici di gravità gradualmente crescente, tra cui immagini di sangue, lamette da barba e istigazione all’autolesionismo stesso.
Quanti post sono stati censurati dall’algoritmo di moderazione automatica di Instagram? Lo 0%. Instagram non ha rimosso nessuno degli 85 post di autolesionismo dallo studio, nemmeno i contenuti con riferimenti più palesi. I cinque profili di età inferiore ai 18 anni non sono stati sottoposti ad alcuna moderazione o restrizione e nessuno dei dieci profili ha ricevuto notifica di violazione delle regole di Instagram, o guida e incoraggiamento a cercare aiuto rispetto alla natura del materiale condiviso.
Secondo l’Amministratore Delegato di Digital Accountability, Ask Hesby Holm, questo risultato è in netto contrasto con l’affermazione di Instagram secondo cui rimuova in modo proattivo i contenuti autolesionistici utilizzando l’intelligenza artificiale. Il fatto che non abbiano rimosso un singolo contenuto nel nostro studio sottolinea una volta per tutte che la sicurezza dei bambini e dei giovani non è in cima alla lista delle priorità di Meta.
Lo studio danese ha anche indagato se l’intelligenza artificiale in uso a Instagram fosse in grado di identificare il materiale autolesionista presentato nei dieci profili fake. L’intelligenza artificiale è stata in grado di identificare il 38% di tutti i contenuti autolesionistici condivisi nei profili e l’88% dei contenuti classificati come più gravi.
Questi dati, secondo l’agenzia indipendente danese, suggeriscono che Instagram ha accesso alla tecnologia in grado di affrontare il problema ma “ha scelto di non implementarla in modo efficace” (Bryant, 2024).
Instagram può favorire le reti di autolesionismo?
Per i ricercatori, non solo Instagram sembra non censurare i contenuti violenti riguardanti l’autolesionismo dalla sua piattaforma, ma il suo algoritmo potrebbe anche incentivare la diffusione di reti di autolesionismo, persino tra i bambini.
Nello studio, infatti, se un utente di 13 anni faceva amicizia con un solo utente della finta rete di Digital Accountability, l’algoritmo automatico di Instagram gli suggeriva di seguire tutti gli altri utenti appartenenti alla rete di profili fake. Ciò significa che se un 13enne, ad esempio, segue accidentalmente un profilo in cui vengono condivisi contenuti di autolesionismo, Instagram lo aiuterà a trovare altri profili che condividono contenuti simili. Instagram svolge quindi un ruolo potenzialmente determinante nel dare forma e diffondere reti in cui vengono condivisi contenuti autolesionistici. Secondo lo studio, Meta potrebbe contribuire al proliferare di contenuti autolesionistici su Instagram non rimuovendo le immagini esplicite e incoraggiando coloro che interagiscono con tali contenuti a stringere amicizia tra loro.
Le misure adottate da Meta appaiono insufficienti per limitare i contenuti autolesionistici che rappresentano un chiaro rischio per la salute fisica e mentale degli utenti e per la sicurezza dei minori, violando le norme dell’UE per le grandi piattaforme di social media come Instagram. Nello scorso Marzo, inoltre, una delle principali psicologhe consulenti per Meta da oltre tre anni in fatto di prevenzione del suicidio e dell’autolesionismo, la dottoressa Lotte Rubæk, ha lasciato il suo incarico, accusando il colosso della tecnologia di “chiudere un occhio” sui contenuti dannosi su Instagram, ignorando ripetutamente i consigli degli esperti e dando priorità al profitto piuttosto che alle vite umane (Bryant, 2024b).
E mentre la Molly Rose Foundation – ente benefico fondato dalla famiglia londinese Russell dopo il suicidio della figlia Molly di 14 anni nel 2017 – sostiene che l’Online Safety Act non è sufficiente per affrontare quelle che definisce chiare carenze sistematiche nell’approccio alla moderazione dei contenuti delle aziende di social media (Sky News, 2024), il problema dell’autolesionismo sulle piattaforme social costituisce ancora una questione di vita o di morte per bambini e adolescenti.