Tecnologia

Estos son algunos temas en los que Facebook puede ejercer la censura

Una filtración, publicada por el diario inglés The Guardian, revela que la compañía puede eliminar publicaciones relacionadas con el discurso de odio, terrorismo, pornografía y automutilación, pero el manual de empleados es complicado y confuso.
22 Mayo 2017, 11:24pm
Imagen vía Kay Nietfeld/EPA

Síguenos en Facebook para saber qué pasa en el mundo.

Una filtración, publicada por el diario inglés The Guardian, revela el complicado manual que rige el contenido que pueden llegar a publicar las 1.700 millones de personas que utilizan Facebook en un mes.

Documentos filtrados muestran que la firma de redes sociales modera temas como el discurso de odio, el terrorismo, la pornografía y la automutilación en su plataforma, reportó el diario británico, citando directrices internas a las que tuvo acceso.

El periódico publicó los manuales y diagramas internos con los que se entrena a sus empleados y con los que la compañía revisa más de 6.5 millones de reportes de cuentas potencialmente falsas a la semana.

Los empleados encargados de monitorear y censurar contenido, están preocupados por la inconsistencia y la naturaleza de algunas de las políticas de la compañía, que, según The Guardian, han creado confusión entre los trabajadores.

Este es el ejército que Facebook contratará para monitorear publicaciones inapropiadas. Leer más aquí.

En muchas ocasiones, los moderadores tienen sólo 10 segundos para decidir qué hacer con los mensajes de contenido sexual, odio o amenazas. La red social asegura que está consciente de que en su plataforma los usuarios llegan a utilizar lenguaje violento para expresar su frustración, ya que lo consideran un espacio libre para manifestarse.

Según la publicación, las reglas relacionadas al contenido sexual también son muy complejas y confusas, y aseguran que temas como la "porno venganza" —cuando una persona comparte material de otra desnuda o semidesnuda por desquitarse de alguien— han abrumado a los moderadores en Facebook.

Facebook no hizo comentarios específicos sobre el reporte, pero dijo que la seguridad es su preocupación primordial.

Un hombre transmite el asesinato de su hija y Facebook tarda un día en retirar el video. Leer más aquí.

"Mantener a la gente segura en Facebook es lo más importante que hacemos. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión. Esto requiere mucha reflexión sobre interrogantes detalladas y, a menudo, difíciles, y hacerlo bien es algo que tomamos muy en serio", dijo en un comunicado la jefa de política de productos de Facebook, Monica Bickert.

La compañía también confirmó que está utilizando software para interceptar contenido gráfico antes de que se publique en el sitio de internet, pero todavía está en sus primeras etapas.

Dentro de la red social también está permitido poner imágenes de actos de crueldad animal para concientizar sobre este problema, sin embargo sí pueden ser eliminados cuando el usuario celebra el abuso o es "extremadamente perturbador".

Facebook planea usar inteligencia artificial para monitorear los videos de los usuarios. Leer más aquí.

La red social se ha visto presionada para que regule su contenido. Una de las fuentes consultadas por el diario The Guardian aseguró que "Facebook no puede controlar su propio contenido. Ha crecido demasiado y demasiado rápido".

Sigue a VICE News En Español en Twitter: @VICENewsEs