Facebook spiega l'hate speech

Facebook prova a spiegare tutte le sue difficoltà nel gestire il fenomeno dell'hate speech all'interno del social network.
Facebook prova a spiegare tutte le sue difficoltà nel gestire il fenomeno dell'hate speech all'interno del social network.

Come parte della promessa di Facebook di rispondere a “domande difficili” sulle sue politiche, il social network ha pubblicato una lunga spiegazione di come gestisce il problema dell’hate speech e di tutte le problematiche connesse. Il post pubblicato all’interno del suo blog ufficiale, attraversa le difficoltà di identificare l’hate speech nei diversi paesi, insegnando all’intelligenza artificiale a gestire le tutte le sfumature del linguaggio e separare i post intenzionalmente creati per fini illeciti da quelli che parlano dell’hate speech ma solo per criticarlo.

Facebook mette in evidenza anche gli scenari ambigui che possono ingannare gli strumenti automatizzati. Il social network descrive anche alcuni casi in cui si è chiaramente sbagliato come quando aveva rimosso un messaggio di posta che l’attivista Shaun King aveva condiviso per condannare il fenomeno dell’hate speech. Il social network elenca anche le occasioni in cui pensa di aver agito in maniera corretta nel gestire casi difficili. Tuttavia il social network non affronta alcune delle questioni più delicate dell’hate speech, come le modifiche semantiche che modificano frasi inaccettabili in frasi accettabili.

Questo è un problema, infatti, che va ben oltre il problema stesso dell’hate speech. Come indicato dalle linee guida per i moderatori, c’è una linea molto sottile che divide le minacce serie da quelle non serie. Inoltre, il medesimo post deve essere valutato anche sotto diversi profili legali in quanto potrebbe risultare accettabile in alcuni paesi ma in altri no.

Un lavoro sicuramente molto difficile che Facebook sta cercando di affrontare nel migliore di modi. Trovare un sistema per gestire quasi 2 miliardi di utenti non è, però, facile. Il social network evidenzia che ogni settimana rimuove oltre 66 mila messaggi legati all’hate speech. Per identificarli, Facebook si appoggia molto alle segnalazioni degli iscritti.

Per migliorare la moderazione dei messaggi sospetti, Facebook si impegna ad aggiungere 3000 membri al suo team di 4500 moderatori anche se c’è la chiara consapevolezza per cui il lavoro da fare sia ancora molto: gestire una community di tali dimensioni è cosa fino ad oggi mai provata da alcuno.

Ti consigliamo anche

Link copiato negli appunti