Copiar enlace

La guía que se usa en Facebook para indicar a los moderadores qué hacer con contenidos que contentan terrorismo, violencia, sexo, entre otros posibles asuntos polémicos, se filtró a la prensa recientemente.

La revelación da mucho a entender sobre las políticas internas en cuanto a contenidos de la red social.

Libro interno de reglas en Facebook causa polémica

Sin duda, moderar lo que comparten 2 mil millones de usuarios no debe de ser sencillo. Sin embargo, este libro interno de reglas o, de forma más precisa, estos 100 manuales internos de reglas, hojas de cálculo y de flujo han dado de qué hablar.

La red social modera con estos documentos asuntos como violencia, discursos de odio, terrorismo, pornografía, racismo y autodaño. Existen incluso guías sobre canibalismo.

[Tweet “#Facebook cuenta con varias guías para moderar contenidos, que se filtraron recientemente”]

Los archivos dan una idea de los códigos y reglas formulados por el sitio, que está bajo tremenda presión en Europa y Estados Unidos para mejorar ciertas situaciones polémicas, como violencia que se ha transmitido en vivo a través de Facebook Live.

Cómo moderan los contenidos en Facebook

Al parecer Facebook está batallando para reaccionar ante nuevos retos, por ejemplo, la pornografía por venganza, es decir, cuando un usuario comparte imágenes de su pareja en actos sexuales sin su consentimiento, para vengarse de esa persona.

Además, las guías dan idea de que los moderadores usualmente están sobrepasados por el volumen de trabajo, contando con apenas 10 segundos para tomar decisiones.

De acuerdo a algunas fuentes, Facebook ha tenido dificultades para controlar su contenido, al ser demasiado y crecer muy rápidamente.

Muchos moderadores tienen preocupaciones, según esas mismas fuentes, sobre la inconsistencia y naturaleza peculiar de algunas políticas. Algunas son las de contenidos sexuales, por ejemplo.

Cuentas falsas y otros retos

Facebook revisa más de 6.5 millones de reportes a la semana de potenciales cuentas falsas.

Usando miles de diapositivas y fotos, Facebook establece estas guías que preocupan a sus críticos, quienes afirman que el servicio es ahora un creador o generador de contenidos y debe hacer más para remover contenido de odio, violento o que puede dañar a las personas.

Estas guías, sin embargo, también podrían crear alarma en los promotores de la libertad de expresión, pues Facebook podría convertirse en un censor de las ideas.

Ambos lados demandan mayor transparencia.

Ejemplos de lo que modera Facebook

En los reportes se muestran algunos ejemplos de lo que borra o deja Facebook entre sus contenidos.

Afirmaciones como “alguien dispárele a Trump”, de acuerdo a Facebook, deben ser borrados de inmediato al ser un Jefe de Estado, en una categoría protegida para la red social.

Sin embargo, sugerir cómo romperle el cuello a una mujer o insultos como “lárgate y muérete” son permisibles ya que, según estas guías, “no son amenazas creíbles”.

Los videos de muertes violentas, según Facebook, no siempre deben ser borrados al “ayudar a crear conciencia” de temas como enfermedades mentales.

Algunas fotos de abuso no sexual y bullying de niños no tienen que ser borrados tampoco, según estos parámetros internos, a menos que exista algo sádico o celebratorio en el contenido.

Lo mismo pasa para fotos de abuso animal, pues sólo “las imágenes más perturbadoras” son marcadas como tal.

Y algo similar pasa con los videos de autodaño. En estas guías Facebook establece que permite que se transmitan en vivo pues “no quiere censurar o castigar a las personas que se encuentran angustiadas”.

Igualmente, cualquiera que tenga más de 100 mil usuarios en la plataforma de Social Media es marcada como figura pública, lo cual les niega la protección completa dada a los individuos privados.

La postura de Facebook

De acuerdo a los mismos documentos y a diversas posturas expresadas por gente de Facebook, en la empresa muestran indiferencia respecto a las amenazas verbales pues creen que una amenaza realizada a través de un dispositivo no es lo mismo que una realizada cara a cara.

Para la red social, el lenguaje violento “casi siempre” es no creíble hasta que el lenguaje sea tan específico que sin duda genere la idea de que no es sólo una “expresión de emociones”, sino que ha pasado a un plan o un diseño de hacer algo.

Igualmente, Facebook establece en sus guías que las personas expresan desprecio o desacuerdo amenazando o llamando a acciones violentas en una forma ‘juguetona’ o poco seria.

La titular de Políticas de Manejo Global de Facebook, Mónica Bickert, afirmó que el servicio tiene casi 2 millones de usuarios y es difícil lograr consenso en qué se debe permitir.

Según la ejecutiva, con una comunidad global y personas con muy diferentes ideas sobre qué está bien compartir, no importa dónde se establezcan límites, siempre habrá “áreas grises”. La sátira y el humor son un ejemplo.

Así, algunos comentarios ofensivos podrían violar las políticas de Facebook en algunos casos, pero no en otros.

¿Qué opinas? ¿Crees que Facebook podrá mantener estas guías ahora que salieron a la luz? ¿Debería aumentar el control o mantenerse igual? Cuéntanos en los comentarios.

Mantente informado de las noticias más relevantes en nuestro canal de Telegram

Escribir comentario

¡Mantente al día!