Tecnología

Las reglas secretas de Facebook para moderar contenido violento, sexual y amenazas racistas

El diario ‘The Guardian’ revela los documentos que usan los empleados de la red para determinar qué material deben censurar

Facebook permite a sus usuarios publicar imágenes de una persona autolesionándose porque la red “no quiere censurar o castigar a quienes están sufriendo” y solo elimina fotografías de actos de crueldad contra animales si son “extremadamente perturbadoras”. Así lo demuestran los documentos secretos de la organización, revelados por el diario The Guardian, y que también incluyen directrices para moderar contenido violento, de odio, relacionado con el terrorismo, pornográfico o racista.

La filtración incrementa la tensión sobre la red creada por Mark Zuckerberg y que usan 1.700 millones de personas al mes. Facebook se autodefine como una red social que conecta a ciudadanos de todos los rincones del mundo, pero en los últimos años ha recibido presiones para que sea regulada como una plataforma de contenido similar a la de los medios de comunicación. El reto no es sencillo y a cada paso que da Facebook para moderar internamente sus actividades, también debe caminar sobre la delgada línea que separa la censura de la libertad de expresión.

Los documentos revelados por The Guardian no habían visto la luz hasta ahora y permiten ver seguir el código que impone Facebook a sus moderadores de contenido, las personas encargadas de determinar si una foto, vídeo o mensaje deben ser eliminados de la red. Una de las fuentes anónimas consultadas por el diario afirman que “Facebook no puede controlar su propio contenido. Ha crecido demasiado y demasiado rápido”. Otro afirma que deben tomar la decisión de eliminar el material “en apenas 10 segundos”.

Las guías ofrecen recomendaciones para varios tipos de contenido, desde imágenes de abuso no sexual a menores de edad, amenazas de violencia, hasta actos de crueldad con animales e imágenes con violencia explícita. En todos ellos, los documentos detallan lo que se puede publicar y lo que no. En el caso de abusos a animales, por ejemplo, se puede compartir fotografías “en general” de estos actos “para concienciar sobre ello y condenarlos”, pero se elimina cuando se considera que el usuario “celebra” ese abuso o que se percibe como “extremadamente perturbador”.

En el caso de amenazas, los manuales indican que se debe eliminar un posible mensaje con las palabras “que alguien dispare a Trump” porque el presidente pertenece a una categoría protegida. Facebook también considera que los vídeos de muertes violentas pueden llevar un aviso para los espectadores pero no siempre se deben eliminar porque sirven para “concienciar sobre problemas mentales”. La red sí permite, por ejemplo, publicar un mensaje indicando que “para partirle el cuello a una zorra, asegúrate de que presionas todo lo que puedes en el centro de su garganta”.

En muchos de los casos, las indicaciones pueden dejar espacio para la interpretación de cada uno de los moderadores, que deben identificar si el usuario está haciendo una amenaza real a otra persona. Uno de los manuales considera que se debe eliminar el mensaje “apuñala y conviértete en el terror del Sionista” pero se puede publicar “vamos a dar palizas a niños gordos” o “peguemos a un pelirrojo” porque “el lenguaje violento casi nunca es creíble a menos que se específico como para que nos de pie a pensar que no es una expresión sin más sino que la persona puede actuar”.

Facebook también establece que “no tomamos medidas en el caso de fotografías de abusos a niños. Marcamos como perturbadores los vídeos de abusos a niños. Eliminamos las imágenes de abusos a niños si se comparten con sadismo y celebración”. La red añade, según The Guardian, que algunas de esas imágenes deben permanecer publicadas “para que el menor pueda ser identificado y rescatado, pero añadimos protecciones para salvaguardar a la audiencia”.

Monika Bickert, responsable de políticas globales de la red social ha contestado por escrito a EL PAíS. Reitera la dificultad que entraña la moderación en su empresa: «Mantener Facebook como un lugar seguro es lo más importante. Trabajamos duro para ello, sin sacrificar la libertad de expresión. Esto requiere bastante reflexión y nos hacemos muchas preguntas. Nos lo tomamos muy en serio». A las más de 4.500 personas en el equipo de moderación se van a sumar 3.000 más. Piden también ayuda a los propios usuarios: «Vamos a hacer más sencillo avisarnos, para que nuestro equipo llegue más rápido y decidan si algo es o no violento. Y, si fuese necesario, contactar con las autoridades».

Uno de los documentos filtrado de su filial australiana ha dejado al descubierto cómo Facebook analiza su contenido tanto para moderarlo como para rentabilizar a sus usuarios, con especial incidencia en los que muestran tener estados de ánimo más bajos. En el texto se detalla cómo se pueden ofrecer publicidad a aquellos que están inseguros o faltos de confianza, se buscan los estados con situaciones como “estresado, derrotado, ansioso, nervioso, inútil, estúpido o tonto”. Las líneas maestras para crear anuncios estos anuncios se hicieron a partir observar el comportamiento de 6,4 millones de adolescentes en secundaria.

Los menores son uno de los agujeros más sensibles de Facebook. Los de Zuckerberg saben que ser duros con ellos hace que se marchen a otras plataformas, como Snapchat con su propuesta efímera y privada, también que son uno de los vectores de consumo más rentables, por lo que mantienen una posición ambigua al respecto. Se supone que los menores no pueden tener un perfil propio con menos de 14 años y es necesario tener control parental. Una restricción que se saltan con solo cambiar la fecha de nacimiento. Para continuar porque son muy activos y vulnerables a la presión entre pares. Facebook es un lugar en el que se muestran logros y se busca impresionar a los amigos. No es difícil añadir un filtro para alejar a los padres del contenido publicados por menores, basta con especificar quiénes no podrán ver la publicación.

La red ha tenido que responder en los últimos meses a varias crisis por el material que decidió censurar, como la fotografía de una niña desnuda, víctima de la guerra de Vietnam, o la retransmisión en directo del asesinato de un hombre en Cleveland. En este último caso, la red eliminó la grabación después de que el autor anunciase que seguiría matando a más personas elegidas al azar, pero rectificó en el caso de la niña vietnamita y ahora permite “excepciones noticiables” en su manual sobre fotografías de guerra. Facebook, sin embargo, nunca permitirá imágenes “de niños desnudos dentro del contexto del Holocausto”.