Así es como Facebook determina si el contenido relacionado con la violencia o el sexo es peligroso

The Guardian ha publicado las guías que Facebook utiliza para determinar si un contenido es peligroso o no.

Una de las cuestiones más controvertidas respecto a Facebook de los últimos años, más allá de la privacidad, está en el control sobre el contenido de los usuarios; sobre todo en lo que se refiere a cómo la compañía controla, vigila y analiza para su eliminación los contenidos relacionado con el sexo, la violencia y el terrorismo. Lo que hasta el momento era un absoluto secreto, ahora The Guardian se ha hecho con el libro que regula la forma de actuar frente al contenido.

Las reglas secretas de Facebook para controlar el contenido peligroso en más de 2000 millones de cuentas que tiene la compañía en activo es más sencillo de lo que podríamos imaginar, aunque lógicamente el funcionamiento interno que determina la forma de proceder automática sigue siendo, como es lógico, un secreto. El diario británico ha tenido acceso a más de 100 manuales, hojas de calculo y diagramas de flujo que explican el proceder con la mayoría de situaciones en las que Facebook tiene que moderar el contenido que incite a la violencia, al odio, al terrorismo, la pornografía, el racismo…

Fotografía: The Guardian

para todo, pese a desconocerse la totalidad de las formas en las que la moderación de la compañía se hace efectiva. Por ejemplo, existe un mecanismo para moderar el contenido que incite o esté relacionado con el amaño de eventos deportivos y, también, para que modere y elimine aquel relacionado con el canibalismo.

Lógicamente, la semántica utilizada es más compleja al estar disponible en multitud de idiomas, lo que supone un desafío brutal para los moderadores y para los sistemas de moderación automática, por lo que puede generar situaciones más complicadas cuando el sistema enfrenta contenido que es legítimo al filtro del contenido peligroso a moderar. De entre todo el tipo de contenido peligroso a moderar, The Guardian destaca, sobre todo, los siguientes procedimientos:

  • Palabras relacionadas con la comisión de delito, como “disparar al presidente”, siempre y cuando sean amenazas creíbles, puesto que el ejemplo de “Para romper el cuello de una [termino despectivo y sexista para referirse a una mujer], aplica toda la presión a la mitad de su garganta” se supone que debería permitirse al no tratarse de una amenaza real.
  • Videos o imágenes de muertes violentas, aunque sean marcados como peligroso, la compañía no siempre los elimina al darse la posibilidad crear conciencia o tratarse de contenido informativo.
  • Imágenes de abuso físico no sexual, no tiene porque ser eliminados si no hay un elemento sádico.

Fotografía: The Guardian

Fotografía: The Guardian

La compañía tiene una relación directa el tipo de contenido, y como es lógico incluye muchísimas situaciones diferentes. Ahora bien, esto no quiere decir que todo el contenido sea efectivamente censurable, y lo complicado del asunto, para Facebook, es comprender el contenido en el que puedan pasar de contenido “complicado” a “peligroso”, puesto que no hay que olvidar que, tal como menciona Facebook, “la gente utiliza un lenguaje violento para expresar la frustración en línea”.

Fuente | Hipertextual

Deja un comentario