Facebook: l'AI cancella il 97% dei post di odio

L'Intelligenza Artificiale usata da Facebook è in grado ora di filtrare il 97% dei contenuti incitanti all'odio prima che gli utenti li segnalino
L'Intelligenza Artificiale usata da Facebook è in grado ora di filtrare il 97% dei contenuti incitanti all'odio prima che gli utenti li segnalino

L’Intelligenza Artificiale sta dando una grossa mano a Facebook per il filtraggio di contenuti che violano le norme della community. È quanto emerge chiaramente dal Report periodico sull’applicazione degli Standard della community, che conferma il grande impegno da parte del social network di Mark Zuckerberg per rendere un posto migliore la piattaforma. Ebbene, del totale di post rappresentanti incitamento all’odio, il 97% sono stati rimossi nell’ultimo trimestre del 2020 grazie all’AI prima che gli utenti li segnalassero.

Facebook: cresce l’incidenza dell’AI sui filtri

Per farsi un’idea, nei tre mesi precedenti, la percentuale era del 94%, mentre alla fine del 2019 il dato registrato era dell’80,5%. Il divario diventa impressionante se confrontato con il dato relativo al 2017, ovvero il 24%. Quanto ad altri argomenti sensibili, tra cui bullismo e molestie a sfondo sessuale, il filtro dell’Intelligenza Artificiale è passato da una percentuale del 26% del terzo trimestre del 2020 al 49% del quarto trimestre, mentre su Instagram dal 55% all’80%. L’Intelligenza Artificiale utilizzata da Facebook per filtrare i contenuti di incitamento all’odio si è talmente affinata da riconoscere moltissimi più contenuti anche in spagnolo ed arabo. Basti pensare, che i contenuti rimossi sono passati a 26,9 milioni di euro contro i 22,1 del terzo trimestre del 2020.

Guy Rosen, VP of Integrity di Facebook, ha commentato così i dati del report: “Stiamo lentamente proseguendo nel reintegrare la nostra forza lavoro addetta alla revisione dei contenuti a livello globale, anche se prevediamo che quest’area sarà influenzata dal Covid-19 fino a quando un vaccino non sarà ampiamente disponibile. A causa della limitata capacità, diamo priorità ai contenuti più dannosi, come i contenuti di suicidio e autolesionismo, che vengono esaminati dai nostri team”. I dati del quarto trimestre del 2020 è stato da questo punto di vista positivo, ma per il 2021 l’azienda “intende condividere ulteriori metriche su Instagram e aggiungere nuove categorie di policy su Facebook” e, sottolinea, proseguirà “a ottimizzare le tecnologie e gli sforzi per tenere i contenuti dannosi fuori dalle app”.

Ti consigliamo anche

Link copiato negli appunti