QR code per la pagina originale

Facebook accusata per la moderazione dei contenuti

Un giornalista sotto copertura si è fatto assumere per moderare i contenuti di Facebook, scoprendo fatti scioccanti: gravi accuse alla gestione del social.

,

I contenuti che mostrano i bambini vittime di abusi rimangono su Facebook nonostante le numerose richieste di rimozione, inoltre i moderatori sarebbero addestrati a non rimuovere i post che incitano all’odio e a ignorare quelli raffiguranti bambini che potrebbero essere minorenni. Queste le pesanti accuse rivolte al social network di Mark Zuckerberg da un giornalista dell’emittente britannica Channel 4, andato sotto copertura come moderatore di Facebook e che ha trovato un flusso di contenuti tossici intenzionalmente lasciati sul sito.

Il reporter si è proposto come dipendente di CPL Resources – un appaltatore che si occupa di moderare i contenuti con sede a Dublino e che lavora con Facebook dal 2010 – intraprendendo così la sessione di addestramento per questa occupazione, in cui i nuovi membri dello staff vengono aggiornati sugli standard della comunità di Facebook. Si apprende dal report, denominato “Inside Facebook: Secrets of the Social Network”, che ai moderatori vengono date tre opzioni per la revisione dei materiali segnalati: ignorarli, eliminarli o contrassegnarli come disturbanti.

Il giornalista ha trovato casi in cui le immagini di abusi sui minori, razzismo e violenza potevano rimanere su Facebook. In alcuni casi, i risultati hanno anche rivelato incoerenze selvagge tra il modo in cui i moderatori venivano addestrati e gli standard di Facebook. In particolare, durante la sessione di training, al giornalista è stato mostrato un esempio di contenuto che dovrebbe essere contrassegnato come disturbante: un video di un uomo adulto che picchia un ragazzino. Segnalato nel lontano 2012 da Nicci Astin – che si occupa di lanciare campagne online contro gli abusi sui minori – il video è stato condiviso migliaia e migliaia di volte e sempre rimasto online, fin quando Channel 4 lo ha riportato all’attenzione di Facebook.

Negli standard della comunità di Facebook sull’incitamento all’odio, la piattaforma scrive che «non permettiamo discorsi di incitamento all’odio su Facebook perché creano un ambiente di intimidazione ed esclusione e in alcuni casi possono promuovere la violenza nel mondo reale». Eppure, secondo il reporter, ai tirocinanti sarebbe stato mostrato un meme di una bambina con la testa sott’acqua e la didascalia “quando la prima cotta di tua figlia è un ragazzino nero”. Al giornalista è stato detto che l’immagine era un “ignorare”, perché non violerebbe effettivamente gli standard della comunità, ma solo implicitamente.

Channel 4 ha parlato con Roger McNamee, un ex investitore di Facebook che ha criticato la società per questioni come lo scandalo dei dati di Cambridge Analytica. Ha detto che Facebook è in grado di trarre vantaggio dai contenuti estremi, per questo opterebbe per mantenerli sul social.

In un post diramato sul blog ufficiale, Facebook ha confermato che c’è ancora molto da fare a riguardo, negando però le accuse sul fatto che sceglie di mantenere i contenuti tossici per mere questioni di monetizzazione:

Le persone di tutto il mondo usano Facebook per connettersi con amici e familiari e per discutere apertamente di idee diverse. Ma condividono solo quando sono al sicuro. Ecco perché abbiamo regole chiare su ciò che è accettabile su Facebook e sui processi stabiliti per applicarle. Stiamo lavorando sodo su entrambi, ma non sempre lo facciamo bene.

Questa settimana un rapporto televisivo su Channel 4 nel Regno Unito ha sollevato questioni importanti su tali politiche e processi, inclusa l’assistenza fornita durante le sessioni di formazione a Dublino. È chiaro che parte di ciò che è presente nel programma non riflette le politiche o i valori di Facebook e non è all’altezza degli elevati standard che ci aspettiamo.

Prendiamo questi errori in alcuni dei nostri processi di formazione e applicazione in modo incredibilmente serio e siamo grati ai giornalisti che li hanno portati alla nostra attenzione. Quando abbiamo saputo di aver commesso degli errori abbiamo agito immediatamente, stiamo fornendo una formazione aggiuntiva e stiamo lavorando per capire esattamente cosa è successo in modo che possiamo correggerlo.

È stato suggerito che chiudere un occhio sui contenuti negativi è nei nostri interessi commerciali. Questo non è vero. Creare un ambiente sicuro in cui persone da tutto il mondo possano condividere e connettersi è fondamentale per il successo a lungo termine di Facebook. Se i nostri servizi non sono sicuri, le persone non condivideranno e nel tempo smetterebbero di usarli. Nemmeno gli inserzionisti vogliono che i loro marchi siano associati a contenuti inquietanti o problematici.

Facebook ha inoltre detto alla BBC di voler raddoppiare il numero dei moderatori impiegati, portandoli entro l’anno da 10mila a 20mila.

Fonte: Facebook Blog • Via: BBC • Immagine: mactrunk via iStock