MUNDO
Lo que pasa en Facebook no se queda en Facebook: la desinformación y violencia en la red social
Facebook se ha convertido en una plataforma de difusión de mensajes engañosos y llamados a la violencia. Organizaciones y víctimas piden a sus directivos que se haga un mayor control de su contenido.
Hannah Gittings sufrió una experiencia trágica el pasado 25 de agosto cuando acudió a una concentración en Kenosha (Wisconsin) con su pareja, Anthony Huber, en apoyo a Jacob Blake, un afroestadounidense herido de bala dos días antes por un policía blanco.
Una milicia de extrema derecha, la Kenosha Guard, atacó la movilización pacífica, horas después de que llamó en Facebook a tomar las armas para “proteger” la ciudad. Uno de los participantes, un adolescente de 17 años cargado con un fusil semiautomático, disparó a quemarropa sobre un manifestante y lo mató. Huber se precipitó entonces sobre el joven para quitarle el arma, pero fue abatido frente a los ojos de su novia.
En el pasado, la página de Facebook de Kenosha Guard ya había enfrentado denuncias por su apelación a la violencia, pero los reclamos nunca tuvieron respuesta.
“La página no solo fue mantenida, sino que fue juzgada como no peligrosa pese a que los miembros incitaban abiertamente a la violencia diciendo que iban a disparar a los negros y alborotadores”, afirmó Gittings durante una reciente conferencia de prensa organizada por la ONG Avaaz.
La mujer emprendió en septiembre acciones legales contra Facebook en respuesta a los comentarios de su máximo responsable, Mark Zuckerberg, quien calificó la no supresión de la página como un “error de funcionamiento”.
Kenosha es solo uno de los casos de una larga lista en la que los llamados a la violencia en redes sociales termina provocando tragedias. Ejemplo de ello son las masacres a los rohinyás en Birmania y el asesinato hace una semanas del profesor Samuel Paty por un extremista islámico.
En medio de este panorama, Facebook se ha enfrentado a nuevas exigencias de gobiernos y ciudadanos que piden se controlen los contenidos violentos que incitan al odio y aquellos que desinforman.
“Trabajamos sin descanso para mejorar nuestra tecnología y reforzar nuestras medidas cuando es necesario con el fin de eliminar los contenidos peligrosos de nuestra plataforma”, aseguró un portavoz de Facebook a la AFP.
Desinformación y mensajes de odio
La plataforma afirma haber multiplicado sus iniciativas para filtrar lo que se comparte en la red social. Especialmente, tomó medidas enérgicas contra los movimientos racistas o conspirativos como QAnon, desmanteló redes de manipulación e invirtió en un programa de verificación de informaciones por terceros.
El gigante tecnológico también señala que ha identificado más de 600 grupos paramilitares desde agosto y suprimido más de 22 millones de publicaciones con contenido de odio. Sin embargo, sectores de la población y algunas organizaciones creen que estas acciones no son suficientes y, además, llegan muy tarde.
Según un estudio realizado en octubre por SurveyUSA, el 65% de los estadounidenses encuestados vieron en Facebook mensajes políticos engañosos durante la campaña presidencial, de ellos, un cuarto dice que los creyó.
Joyce Jones, candidata a la alcaldía de Montevallo, Alabama, fue víctima de esta ola de desinformación en Facebook. “Hicimos un debate con mi oponente un martes por la noche y cuando me desperté al día siguiente descubrí que yo estaba a favor de suprimir los presupuestos de la policía”, recordó esta afroestadounidense. “Fui la primera sorprendida, porque jamás dije algo así”, añadió.
La candidata también apeló al CEO de Facebook tras lo ocurrido. “Mark Zuckerberg y otros directivos deben comprender que lo que pasa en Facebook no se queda solo en Facebook (...) se viene con nosotros a casa, a la tienda o a nuestro trabajo. Y afecta a nuestros hijos”, dijo.
Para Mark Potok, del Centro de Análisis de la Derecha Radical, la supresión total de los contenidos difundidos por los grupos extremistas en las redes sociales es imposible. “Publican una cantidad enorme al día (...) Dudo que las empresas puedan erradicar su influencia”.
Aun así, la ONG Avaaz milita por una modificación del algoritmo para que las redes sociales sean menos tóxicas, aseguren una política más rigurosa de supresión de cuentas de grupos nocivos e incluyan más moderadores de contenido.
*Alianza AFP