Facebook cuenta con un equipo de 4.500 moderadores, a los que se sumarán 3.000 más en los próximos meses, para controlar los contenidos que se publican en la red social.
¿Cómo trabaja el batallón? Sobre sus mesas en la sede de Melo Park tienen una guía redactada con los contenidos que deben permitir y los que deben tachar de “perturbadores”, o borrar directamente.
Se trata de publicaciones relacionadas con violencia, terrorismo, pornografía, racismo, canibalismo u odio.
Sin embargo, igual que los contenidos que han sido noticia, suicidios en directo a través de la aplicación Facebook Live, brutales asesinatos, confesiones, amenazas, etc. La guía, hecha pública por el diario The Guardian, tampoco está exenta de polémica.
Por ejemplo, si un moderador detecta en un muro una amenaza hacia Donald Trump debe eliminarla inmediatamente, “qué alguien le pegue un tiro a Trump”, porque se trata de un personaje protegido. Sin embargo, un comentario agresivo hacia una persona cualquiera, «para romperle el cuello a una prostituta, asegúrate de aplicar toda la presión en la mitad de su garganta», no tiene porqué ser borrado.
Lo mismo ocurre con el tema de la desnudez. El manual dicta que los vídeos de abortos son publicables, siempre y cuando no aparezca nadie desnudo. Que los abusos, tanto a niños como adultos, no tienen que borrarse mientras no sean de carácter sexual o haya sadismo en la imagen.
10 segundos para decidir
Los moderadores están hasta arriba de trabajo. La compañía que preside Mark Zuckerberg, cuenta con 1.230 millones de usuarios diarios y la legión de controladores apenas tiene“10 segundos para decidir si algo es publicable o no”. Todos trabajan con una herramienta llamada Single Review Tool (STR), que es una herramienta de revisión única, y están supervisados por unos expertos llamados Subject Matter Experts que evalúan su rendimiento.
Entre las normas que ha desvelado el diario británico, destacan las siguientes:
- Los vídeos de muertes violentas, mientras que estén marcados como perturbadores, no siempre tienen que ser borrados, ya que pueden ayudar a concienciar sobre problemas tales como una enfermedad mental.
- Algunas imágenes de abuso físico no sexual y de intimidación de niños tampoco tienen que ser eliminadas a menos que haya un componente sádico o de celebración.
- Las fotos de abusos a animales se pueden compartir. Si el contenido es realmente perturbador se clasifica como tal pero no se eliminará.
- Todo el arte «hecho a mano» que muestre desnudez o actividad sexual sí está permitido. Sin embargo, el arte digital de la misma temática no está permitido.
- Se permiten vídeos de abortos, siempre y cuando no haya desnudos.
- Facebook permitirá retransmisiones en vivo de intentos de autolesión, ya que «no quiere censurar o castigar a personas en peligro».
- Cualquier persona con más de 100.000 seguidores se designará como una figura pública, y se le negará todas las protecciones dadas a los individuos privados.
«Mantener a la gente segura en Facebook es lo más importante que hacemos. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión. Esto requiere mucha reflexión sobre interrogantes detalladas y, a menudo, difíciles, y hacerlo bien es algo que tomamos muy en serio», ha dicho la jefa de política de productos de Facebook, Monica Bickert.
Facebook ha adelantado que está probando un software para interceptar contenido gráfico antes de que se publique en la red social, pero todavía está en sus primeras etapas.
Por su parte, la ONG Asociación Nacional para la Protección de la Crueldad con los Niños, ha dicho, sin embargo, que la guía sobre los criterios de Facebook para eliminar o no publicaciones es «cuanto menos alarmante».
«Necesitan hacer mucho más que contratar a 3.000 moderadores», dijo la ONG en un comunicado. «Facebook, y otras redes sociales, deben ser reguladas de forma independiente y multadas si no logran mantener seguros a los niños», es su propuesta.