Tecnología

Las reglas secretas de Facebook para vigilar lo que publicas

Facebook hizo públicos sus “estándares comunitarios” donde detalla lo que está permitido en temas de discurso de odio, uso de drogas e incitación a la violencia, entre otros. Estos estándares permiten saber qué criterios usa Facebook para eliminar publicaciones o cuentas individuales.

24-04-2018, 8:59:31 AM
Facebook, Champions

Facebook Inc. divulgó el martes un libro de reglas para los tipos de publicaciones que permite en su red social, en que dio más detalles que nunca antes sobre lo que está permitido en temas que van desde el uso de drogas y el trabajo sexual al hostigamiento, el discurso de odio y la incitación a la violencia.

Facebook durante años ha tenido “estándares comunitarios” sobre lo que la gente puede publicar. Pero sólo estaba disponible públicamente una versión relativamente breve y general, mientras que existía un documento interno mucho más detallado para decidir cuándo deberían eliminarse las publicaciones o las cuentas individuales.

Ahora, la compañía está poniendo a disposición del público el documento más largo en su sitio web para despejar la confusión y ser más abierto acerca de sus operaciones, dijo Monika Bickert, vicepresidente de política de productos y antiterrorismo de Facebook.

“Cuando vienes a Facebook, deberías entender dónde trazamos estas líneas y qué está bien y qué no está bien”, comentó Bickert a periodistas en una sesión informativa en la sede de Facebook.

La red social más grande del mundo ha enfrentado duras críticas de gobiernos y grupos de derechos en muchos países por no hacer lo suficiente para evitar el discurso de odio y evitar que el servicio sea utilizado para promover el terrorismo, provocar violencia sectaria y transmitir actos como asesinatos y suicidios.

Al mismo tiempo, la compañía también ha sido acusada de cumplir con el mandato de regímenes represivos al eliminar agresivamente contenidos contrarios a ciertos gobiernos y por entregar muy poca información respecto a por qué elimina ciertas publicaciones y cuentas.

Por ejemplo, la red social puede eliminar una cuenta o contenido si considera que cae dentro de alguna de estas categorías:

  • Violencia y comportamiento criminal. Cualquier amenaza que pueda causar algún tipo de daño en la vida real. Esto también incluye actividades terroristas, trata de personas o incitación a actividades delictivas.
  • Seguridad. Todo lo relacionado con suicidio y autolesiones, explotación sexual (adultos o menores de edad), bullying y acoso.
  • Contenido inapropiado. Incluye discurso de odio, violencia gráfica o explícita, desnudez adulta y actividad sexual y contenido cruel e insensible.
  • Integridad y autenticidad. Es una de las categorías que más se ha reforzado en los últimos meses (dado el escándalo de Cambridge Analytica) y engloba spam, falsificación de identidad y noticias falsas.
  • Falta respeto de la propiedad intelectual.

Puedes ver el desglose completo de las Normas a la Comunidad aquí

Las nuevas políticas permitirán por primera vez que las personas apelen a decisiones de eliminar un contenido individual. Anteriormente, sólo se podía apelar la eliminación de cuentas, grupos y páginas. Facebook también está comenzando a proporcionar la razón específica por la cual se está bajando contenido para una variedad más amplia de situaciones.

Por ejemplo, ya es posible de apelar a las publicaciones que fueron removidas por desnudez o contenido sexual, discurso de odio o violencia gráfica.

Así es como funciona el proceso:

  • Si tu foto, vídeo o publicación ha sido eliminado, se te dará la opción de solicitar una revisión.
  • Las apelaciones son revisadas por el equipo de Facebook en un plazo de 24 horas.
  • Si la revisión procede, el contenido será restaurado y Facebook notificará a la persona que solicitó la apelación.

Leer: Facebook hace cambios para proteger tus datos, ¿Ya los conoces?

Con información de Reuters.

También podría interesarte:

Comentarios