Tiempo de lectura: 3 minutos
Shares

Una investigación del diario The Guardian ha revelado por primera vez las reglas secretas de Facebook para censurar contenidos sobre sexo, terrorismo, racismo, pornografía o violencia. El diario ha extraído la información de más de 100 manuales internos, hojas de cálculo y otros documentos que dan una visión sin precedentes sobre la posición que toma el gigante de las redes sociales ante este tipo de publicaciones.

Los archivos de Facebook ilustran las dificultades a las que se enfrentan los ejecutivos de la red social, la presión política en Europa y Estados Unidos, y los desafíos para los moderadores, que abrumados por el volumen de trabajo disponen a veces de tan solo 10 segundos para tomar una decisión sobre temas peligrosos de entre casi 2.000 millones de cuentas.

Cómo determina Facebook si el contenido relacionado con la violencia es peligroso

Con miles de diapositivas y fotos en su plataforma, Facebook establece las directrices sobre qué hacer con contenidos odiosos, dañinos o violentos de su red. Tal y como ha extraído The Guardian, esto es lo que dicen algunas de las polémicas reglas de Facebook ante contenidos estimados como peligrosos:

  • Las palabras relacionadas con la comisión de un delito, siempre y cuando supongan una amenaza real, deben ser borradas. Por ejemplo, una amenaza al presidente del gobierno o a alguien que ya haya sufrido intentos de asesinato debería ser eliminada. Entre las personalidades que Facebook muestra como ejemplo de amenazas creíbles se encuentran la Reina de Inglaterra, el Papa Francisco o Salman Rushdie.
  • Los vídeos e imágenes de muertes violentas, aunque marcados como contenido peligroso, no siempre tienen que ser eliminado si se da la posibilidad de crear conciencia o se trata de contenido informativo.
  • Las imágenes de abuso físico no sexual e intimidación de niños no tienen que ser borradas a menos que haya un elemento sádico o de celebración en las mismas.
  • Las fotos de abusos a animales podrán ser compartidas, excepto aquellas extremadamente desconcertantes, que serán marcadas como inquietantes.
  • Se permiten vídeos sobre aborto, siempre y cuando no haya desnudez.
  • El arte hecho a mano en el que se muestra desnudez o actividad sexual es permitido. El digital no.
  • Facebook permitirá a sus usuarios transmitir en vivo intentos de autolesión porque no quiere censurar a las personas en peligro.

La compañía de Mark Zuckerberg también se ha ocupado de explicar a través de ejemplos qué tipo de mensajes o contenidos no son considerados amenazas, a pesar de lo que podría indicar su literalidad, como puedes ver en esta imagen, en la que se incluyen “Matemos a todos los orcos de Mordor”, “Mañana me vengaré y mataré a tu avatar online” o “Deberíamos invadir España”:

amenaza

De los archivos de Facebook también se extrae que cualquier persona con más de 100.000 seguidores en la red social será considerada como una figura pública, por lo que no se le dará la protección otorgada a los usuarios particulares. 

La compañía incluye muchas situaciones diferentes y lo complicado para ella es diferenciar contenido “complicado” y contenido “peligroso”. La responsable de la gestión global de políticas de Facebook, Monika Bickert, ha admitido que dado que el servicio tiene casi 2000 millones de usuarios es difícil llegar a un consenso sobre qué permitir y qué no.

sarah

“Tenemos una comunidad global muy diversa y la gente va a tener ideas muy diferentes sobre lo que está bien compartir. No importa dónde se dibuje la línea, siempre habrá algunas áreas grises. Por ejemplo, la línea entre la sátira y el humor y el contenido inapropiado es a veces muy gris. Es muy difícil decidir si algunas cosas pertenecen al sitio o no” ha dicho (extraído de The Guardian).

La polémica desde algunos medios ya está servida, y algunos críticos en Europa y Estados Unidos han exigido que la compañía sea regulada de la misma forma que los medios de comunicación.

Mantente informado de las noticias más relevantes en nuestro canal de Telegram