La semana pasada Facebook fue noticia pero no precisamente por las actualizaciones en su plataforma, sino por los Facebook Files publicados por el diario inglés The Guardian. En la investigación quedaron al descubierto las polémicas políticas aplicadas por los llamados Moderadores, trabajadores que deben decidir en más o menos diez segundos el contenido a ser publicado.En las filtraciones de los manuales de Facebook dadas al diario inglés se revelaron las reglas que deben seguir los moderadores, la mayoría causaron conmoción en varios países. Dentro de las más polémicas se encuentran:Los videos de muertes violentas no siempre tienen que ser borrados o descartados, ya que pueden ayudar a sensibilizar sobre problemas específicos.Imágenes de abuso físico –no sexual- y de intimidación de niños no se deben eliminar a menos que contengan elementos sádicos.Imágenes de animales abusados pueden publicarse. Si el contenido es perturbador se clasifica como tal, pero no se elimina.Se permiten videos de abortos.Se puede publicar contenido artístico de actividad sexual, desnudos o grafitis hechos a mano.Comentarios como “Alguien debería darle un tiro a Trump” deben ser eliminados porque el presidente cuenta con estatus protegido.Frases como “vete a la mierda” y “muérete” pueden ser publicadas porque no representan ninguna amenaza creíble.Expresiones sobre religión y migración son permitidas: “El Islam es una religión de odio”, “Los migrantes son sucios y ladrones” y “Jódete inmigrante”.Todo tipo de lenguaje sexual es permitido en comentarios y publicaciones.Se permiten videos de autolesión en Facebook Live.

En el mismo documento, Facebook dice que este tipo de expresiones violentas se usan para expresar la frustración de los usuarios y que ellos se sienten tranquilos de publicarlo. Sin embargo, la red social ha recibido muchas críticas estos días porque estaría permitiendo el bullying de niños y actos violentos en transmisiones en vivo como suicidios y asesinatos.Le recomendamos: “No es difícil imaginar un mundo en el que Facebook controle lo que ves y lo que piensas”Pero según se conoció por el mismo diario The Guardian, toda la controversia gira entorno a los llamados moderadores, puesto que son personas que trabajan bajo condiciones laborales de altísimo estrés, son sobrecargados de trabajo y además les pagan bajos sueldos; razones suficientes para filtrar los Facebook Files a la prensa.“Estamos mal pagados e infravalorados”, dice un moderador de contenido que decidió mantener su identidad en secreto. Además, el hombre aseguró que Facebook le pagaba 15 dólares por hora si eliminaba contenido terrorista, luego de capacitarse dos semanas para dicha labor.Aunque el problema va más allá de lo económico. Según los testimonios revelados, los moderadores deben asistir diariamente a psicólogos, ya que la mayoría no logran dormir con tranquilidad y manifiestan tener pesadillas luego de ver contenidos violentos y depravados por horas.Puede leer: 3 maneras en las que Facebook usa su información de WhatsAppAl respecto un portavoz de la compañía reconoció que ese trabajo es difícil y aseguró que se les está brindando el apoyo psicológico necesario a los moderadores, pues no es fácil ver decapitaciones, abuso sexual infantil o abortos. Sin embargo, un analista contratado por Facebook aseguró que “la formación y el apoyo brindado hasta el momento no es suficiente”.El moderador anónimo también afirmó que muchos de sus compañeros son inmigrantes con conocimientos básicos de inglés, contratados para eliminar contenido en su lengua materna. La gran mayoría terminan muy afectados luego de una jornada de trabajo y deciden no pedir ayuda psicológica a la compañía por temor a ser despedidos o no recibir el pago, aseguró la fuente del diario inglés.Luego de que Facebook recibiera cartas de indignación por haber permitido que circulara varias horas el video del asesinato de una bebé de 11 meses a manos de su padre en Tailandia, Mark Zuckerberg decidió contratar a tres mil nuevos moderadores para controlar las publicaciones, especialmente las transmisiones en vivo.En enero de este año, algunos trabajadores de Microsoft del “Equipo de seguridad en línea”, encargados de funciones similares a los moderadores de Facebook, demandaron a la compañía por estrés postraumático grave como consecuencia de la exposición a imágenes de abusos sexuales y crímenes atroces.Le puede interesar: Hombre que transmitió por Facebook un asesinato en EE. UU. se suicidóFacebook ha mostrado su preocupación frente al tema y por medio de un breve comunicado aseguró que “a veces cometemos errores, pero la seguridad es nuestra mayor prioridad”. Asimismo, prometen medidas al respecto como la rotación de  sus empleados en otras áreas de la compañía, asesoría psicológica oportuna e incentivos que eviten traumas por la difícil pero muy importante labor que desempeñan.