Tiempo de lectura: 4 minutos
Shares

Por fin se han revelado de forma oficial los criterios de Facebook en cuya base los moderadores revisan el contenido de la red social y determinan su censura.

Monica Bickert, vicepresidenta de gestión de políticas globales de Facebook, asegura que no se han cambiado en absoluto los criterios de Facebook desde hace tiempo, pero sí han evolucionado y lo continuarán haciendo.

Sin embargo, es la primera vez que se publican las pautas de implementación de sus revisores de contenido, y a pesar de que teníamos una idea sobre estos factores, desde ahora los usuarios podrán saber por qué cierta clase de contenido es censurado además de tener una idea clara sobre cómo apelar alguna decisión.

Cómo iniciar una apelación en caso de que creas que se ha eliminado contenido válido en Facebook

Facebook señala que durante el próximo año construirá un sistema para que los usuarios apelen este tipo de decisiones. En la actualidad se ofrece una opción de solicitar revisión adicional en publicaciones que fueron eliminadas por desnudez/actividad sexual, discurso de odio o violencia gráfica.

En un plazo no mayor a 24 horas el personal humano de Facebook iniciará la revisión manual y si se ha cometido un error, se notificará al afectado y se restaurará la publicación. El siguiente es un ejemplo de una censura incorrecta que ahora podrá apelarse:

Imagen: Facebook

Imagen: Facebook

Estos son los 6 criterios de Facebook para moderar el contenido en su plataforma

1 .Violencia y comportamiento criminal

Si bien muchas veces los usuarios descargan su frustración por medio de las redes sociales, si Facebook determina que una amenaza es creíble en base al contexto, lenguaje y detalles en el contenido, la publicación se eliminará y se inhabilitarán las cuentas además de dar aviso a las autoridades locales.

Además previene el contenido que promueve crímenes violentos, robos o fraudes, así como la organización de actividades delictivas y se prohíben las publicaciones de productos regulados como drogas, armas y medicamentos que requieran prescripción médica.

2 .Seguridad

Facebook pretende evitar los posibles daños en la vida real que puedan estar relacionados de algún modo con el contenido de Facebook. En este apartado se incluye la explotación a menores así como la explotación sexual de adultos.

Además se eliminará el contenido que degrade o avergüence a los usuarios (bullying) así como prácticas de acoso, vulneraciones de privacidad y derechos de privacidad de imágenes.

3 .Contenido cuestionable

No se permiten en Facebook los discursos de odio ni el lenguaje que incite al odio, ya que crea un entorno de intimidación y exclusión y que puede terminar con la incitación a la violencia en la vida real.

Otro de los criterios de Facebook dicta que no se permitirá contenido cruel e insensible, y se restringe la exhibición de desnudos o actividad sexual, dependiendo el contexto de la publicación.

Facebook eliminará el contenido que incluya violencia gráfica o explícita, aunque en los casos en que la publicación toque temas importantes como informar sobre la vulneración de los derechos humanos, se podrá una etiqueta de advertencia de contenido gráfico o violento.

4 .Integridad y autenticidad

Facebook se esfuerza por limitar la propagación de spam comercial, y por lo tanto se evitan los anuncios falsos, fraudes y brechas de seguridad, al igual que se evitará la difusión de noticias falsas, y si bien no se eliminarán, si se verán con menos frecuencia en la sección de noticias.

Facebook busca moderar al máximo la falsificación de identidad con el fin de crear un entorno seguro. Además si la red social se entera que uno de sus usuarios ha fallecido, convierte la cuenta en conmemorativa, protegiéndola de intentos de inicio de sesión no deseados y actividades fraudulentas.

5 .Respeto de la propiedad intelectual

Facebook recalca en este punto que en sus condiciones de servicio no permiten que sus usuarios publiquen contenido que vulnere los derechos de propiedad intelectual de otra persona, incluidos los derechos de autor y de marca comercial.

6. Solicitudes de usuarios

Además la red social revisa el contenido en caso de que los usuarios pidan eliminar su propia cuenta, soliciten eliminar la cuenta de un familiar fallecido (tras verificar su identidad), además de solicitudes para eliminar las cuentas de los menores de edad, y en general protección adicional al contenido que involucre a menores como el abuso infantil.

Imagen: Depositphotos

Mantente informado de las noticias más relevantes en nuestro canal de Telegram