La empresa difundió los datos como parte de su sexto Informe de Aplicación de Estándares Comunitarios, que introdujo en 2018 junto con reglas de decoro más estrictas en respuesta a las críticas por su enfoque laxo en cuanto a la vigilancia de los contenidos en sus plataformas.
La empresa dijo que a partir de 2021 invitaría a expertos externos a auditar de forma independiente las métricas usadas en el informe.
La mayor empresa de redes sociales del mundo eliminó unos 22.5 millones de mensajes que contenían expresiones de odio en su aplicación principal en el segundo trimestre, frente a los 9.6 millones del primer trimestre. También eliminó 8.7 millones de mensajes relacionados con organizaciones extremistas, en comparación con los 6,3 millones del período anterior.
Facebook dijo que confió más en la tecnología de automatización para revisar el contenido durante los meses de abril, mayo y junio, ya que tenía menos revisores en sus oficinas debido a la pandemia de Covid-19. Más
No hay comentarios:
Publicar un comentario