TikTok ogni 39 secondi invia contenuti potenzialmente dannosi agli utenti

Center for Countering Digital Hate (CCDH) (è un’organizzazione no-profit britannica con uffici a Londra e Washington, DC. È impegnata a campagne affinché le grandi aziende tecnologiche smettano di fornire servizi a persone che potrebbero promuovere odio e disinformazione, inclusi neonazisti e sostenitori dell’anti-vaccino), riporta che il social network cinese  TikTok raccomanda contenuti di autolesionismo e disturbi alimentari a alcuni utenti entro pochi minuti dall’adesione alla piattaforma.
Il nuovo studio prevedeva che i ricercatori creassero account TikTok fingendosi utenti di 13 anni interessati a contenuti sull’immagine corporea e sulla salute mentale. Ha scoperto che entro 2,6 minuti dall’accesso all’app, l’algoritmo di TikTok consigliava contenuti suicidi. Il rapporto ha mostrato che il contenuto del disturbo alimentare è stato raccomandato in soli 8 minuti.
I ricercatori nel corso di questo studio, hanno trovato 56 hashtag TikTok che ospitano video sui disturbi alimentari con oltre 13,2 miliardi di visualizzazioni.
James P. Steyer, fondatore e CEO di Common Sense Media, osservatore esterno non è affiliato con lo studio, ha affermato:
«Il nuovo rapporto del Center for Countering Digital Hate sottolinea perché è ormai tempo che TikTok prenda provvedimenti per affrontare la pericolosa amplificazione algoritmica della piattaforma. L’algoritmo di TikTok sta bombardando gli adolescenti con contenuti dannosi che promuovono suicidio, disturbi alimentari e problemi di immagine corporea che stanno alimentando la crisi di salute mentale degli adolescenti».
TikTok, lanciata nel 2017 a livello globale dalla società cinese ByteDance, opera attraverso algoritmi basati su dati personali collegati a Mi piace, follower, tempo di visualizzazione, interessi di un utente, nel 2021 è diventata l’app di social media in più rapida crescita al mondo, raggiungendo un miliardo di attività mensili utenti.
Il rapporto CCDH descrive in dettaglio come gli algoritmi di TikTok perfezionano i video mostrati agli utenti mentre l’app raccoglie maggiori informazioni sulle loro preferenze e interessi. I suggerimenti algoritmici sul feed “For You” sono progettati, come afferma l’app, per essere “centrali per l’esperienza TikTok”, ma la nuova ricerca mostra che la piattaforma video può inviare contenuti dannosi agli utenti vulnerabili mentre cerca di mantenerli interessati.
I ricercatori del CCDH per testare l’algoritmo su TikTok hanno creato account “standard” e “vulnerabili”, si sono registrati come utenti negli Stati Uniti, nel Regno Unito, in Canada e in Australia. Sono stati creati un totale di otto account, i dati sono stati raccolti da ciascun account per i primi 30 minuti di utilizzo. Il CCDH afferma che la piccola finestra di registrazione è stata creata per mostrare quanto velocemente la piattaforma video può analizzare ogni utente e inviare contenuti potenzialmente dannosi.
Il rapporto ha sottolineato che ogni ricercatore, fingendosi un tredicenne, l’età minima che TikTok permette di iscriversi al suo servizio, ha creato due account nel Paese designato, a un account è stato assegnato un nome utente femminile; l’altro, un nome utente che indica una preoccupazione per l’immagine del corpo, il nome includeva la frase “perdere peso”.
I ricercatori su tutti gli account si sono soffermati brevemente su video riguardanti l’immagine del corpo e la salute mentale. Hanno messo “mi piace” a quei video, come se fossero adolescenti interessati a quei contenuti.
I ricercatori confrontando l’account standard con quello interessato a perdere peso, hanno scoperto che a questo account rispetto agli account standard, veniva servito un numero di contenuti dannosi complessivamente tre volte superiore e un numero di video specifici sull’autolesionismo e il suicidio 12 volte superiore.
Imran Ahmed, CEO del CCDH, era presente a Washington D.C. per sostenere il Kids Online Safety Act (KOSA), prevede l’introduzione di barriere per la protezione dei minori online, questa idea di legge è contestata da più di 90 gruppi, temono che possa sottoporre gli adolescenti che subiscono violenza domestica e abusi dei genitori a ulteriori forme di sorveglianza e controllo digitale.
Imran Ahmed ha dichiarato:
«TikTok è in grado di riconoscere la vulnerabilità degli utenti e cerca di sfruttarla. È parte di ciò che rende gli algoritmi di TikTok così insidiosi, l’app testa costantemente la psicologia dei nostri bambini e si adatta per tenerli online».
I contenuti inviati agli account vulnerabili includevano un video con la didascalia: “Far credere a tutti che stai bene [sic] in modo che tu possa tentare in privato”.
Il video che insinua il tentativo di suicidio ha raccolto 386.900 like. Il rapporto mostrava anche un video di una ragazza adolescente che piangeva, con parole sullo schermo che recitavano: “Non starai pensando di toglierti la vita, vero?”. E poi faceva riferimento a un personaggio televisivo di nome Sarah Lynn, che nella serie animata di Netflix “Bojack Horseman” muore per overdose. Il video ha ricevuto 327.900 like.
I ricercatori hanno posto l’attenzione anche a un link a Pretty Scale.com, un sito web che afferma di analizzare la bellezza del viso, a suo dire funziona misurando la simmetria facciale, confrontando le proporzioni dell’utente con le proporzioni ideali per un uomo o una donna. Invita gli utenti a caricare foto del corpo e del viso per vedere la loro attrattiva classificata da una “formula matematica”. Il video ha ricevuto 17.300 like.
La verità su Pretty Scale: i risultati sono accurati? No, non lo sono. Ecco perché, leggi qui (traduzione automatica).
Il portavoce di TikTok contattato per un commento ha contestato la metodologia dello studio, ha detto:
«Ci consultiamo regolarmente con esperti di salute, rimuoviamo le violazioni delle nostre politiche e forniamo accesso a risorse di supporto a chiunque ne abbia bisogno. La piattaforma video è consapevole del fatto che i contenuti scatenanti sono unici per ogni individuo e che la piattaforma sociale rimane concentrata sulla promozione di uno spazio sicuro e confortevole per tutti».
Il programma 60 Minutes (è un programma televisivo statunitense di attualità, in onda dal 24 settembre 1968 sul network televisivo CBS) ha detto che questo studio arriva mentre più di 1.200 famiglie stanno intentando cause contro le società di social media, tra cui TikTok, sostengono che i contenuti delle piattaforme di social media hanno avuto un impatto profondo sulla salute mentale dei loro figli e, in alcuni casi, hanno contribuito a causarne la morte. Si prevede che l’anno prossimo saranno avviate oltre 150 cause.

Avatar photo

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →