Studio sulle basi della moderazione su Twitter

Le piattaforme di social media negli ultimi anni hanno sviluppato e implementato una serie di strategie per moderare i contenuti pubblicati dai propri utenti e garantire che non siano offensivi o inappropriati. Ciò ha scatenato un dibattito significativo, con alcuni utenti che affermano che queste tecniche ostacolano la libertà di parola online.
I ricercatori Erwan Le Merrer, Benoit Morgan e Gilles Trédan recentemente hanno condotto uno studio che indaga su un metodo per moderare i contenuti sulle piattaforme di social media noto come shadow banning, si verifica quando un sito di social media a insaputa dell’utente interviene nella sua attività online, ad esempio, rendendo i suoi post o commenti invisibili agli altri utenti. Ciò è spesso ottenuto utilizzando algoritmi decisionali o altre tecniche computazionali addestrate per identificare post o commenti che potrebbero essere considerati inappropriati.
Erwan Le Merrer, uno dei ricercatori che ha condotto lo studio pubblicato su arXiv ha detto:
«Come ricercatori, il nostro oggetto di studio è la comprensione delle interazioni che gli utenti possono avere con gli algoritmi decisionali, questi algoritmi sono spesso proposti sotto forma di scatola nera, significa che gli utenti non sanno nulla del loro funzionamento, ma affrontano le loro decisioni come conseguenza dei dati che forniscono. Abbiamo messo in dubbio gli algoritmi di moderazione automatizzata sui social network come esempio di tali algoritmi decisionali».
I ricercatori hanno esaminato le basi dello shadow banning su una specifica piattaforma di social media: Twitter. Hanno deciso di concentrarsi su Twitter perché la sua moderazione dei contenuti degli utenti ha ricevuto un’attenzione significativa negli ultimi anni. Hanno spiegato:
«Ci siamo affidati a un codice open source in grado di rilevare alcune restrizioni imposte agli utenti e la visibilità dei loro profili, tweet o interazioni. Abbiamo migliorato questo codice per supportare enormi campagne di test e controllato la visibilità dei tweet di circa 2,5 milioni di utenti Twitter».
I ricercatori dopo aver compilato un dataset contenente informazioni relative alla visibilità dei tweet pubblicati dagli utenti su Twitter, lo hanno utilizzato per cercare di capire i motivi per cui alcuni utenti potrebbero essere stati soggetti a shadow banning, per fare ciò, hanno analizzato i dati raccolti testando due diverse ipotesi sul perché la visibilità di alcuni utenti su Twitter potrebbe essere stata ostacolata.
La prima ipotesi è stata che le limitazioni alla visibilità dei tweet di alcuni utenti fossero causate da bug o malfunzionamenti della piattaforma. La seconda è che lo “shadow banning” si propaga come un’epidemia tra gli utenti che interagiscono tra loro.
Erwan Le Merrer ha detto:
«Twitter dal momento che a un certo punto ha affermato di non utilizzare metodi di shadow banning (riferendosi a problemi di bug), abbiamo deciso di fare leva su metodi statistici per testare la probabilità di tale scenario di bug, che dovrebbe essere distribuito in modo uniforme tra gli utenti e quindi tra i nostri dati. Abbiamo scoperto che diverse tipologie campionate sono state colpite in modo differente (ad esempio, politici e celebrità meno dei bot o utenti campionati a caso)».
I risultati delle analisi mostrano che l’ipotesi che lo shadow banning si verifichi a causa di bug o errori nel sistema di Twitter è statisticamente improbabile. È interessante notare che anche gli amici o i seguaci degli utenti che sono stati sottoposti a shadow banning hanno maggiori probabilità di essere sottoposti a shadow banning.
I ricercatori hanno detto:
«Per sostituire l’improbabile bug narrativo proposto da Twitter con un altro scenario, abbiamo ideato un modello che ha catturato i gruppi di utenti che si incontrano di frequente con il divieto shadow banning. Il nostro modello in altre parole mostra che gli utenti che sono stati sottoposti a shadow banning hanno maggiori probabilità di avere amici sottoposti a shadow banning: questa prevalenza di shadow banning su alcuni utenti e sui loro contatti sta davvero mettendo in discussione la dichiarazione di Twitter sulle sue pratiche di moderazione».
Lo studio fa un po’ di luce sulle dinamiche e i meccanismi del divieto shadow banning, rivelando che spesso ci sono gruppi di utenti che interagiscono tra loro. Ciò potrebbe essere dovuto ad algoritmi decisionali che imparano a classificare le connessioni degli utenti che hanno subìto il divieto shadow banning come altri potenziali candidati per lo shadow banning. Potrebbe anche essere causato dall’algoritmo che prende di mira le parole usate frequentemente all’interno di specifiche comunità.
I ricercatori in futuro sperano di condurre ulteriori indagini per esaminare i limiti dei sistemi basati su macchine per la moderazione e la raccomandazione dei contenuti online. Hanno detto:
«Abbiamo in programma altre indagini sulle scatole nere algoritmiche. I servizi online espongono ora i loro utenti a una grande quantità di queste tecniche ad esempio, come il punteggio di credito, sistemi di raccomandazione, etc., quindi la scelta sarà difficile».

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →