El lunes pasado, Facebook reportó ganancias de más de 9.000 millones de dólares en el último trimestre y sus usuarios aumentaron pese a que la red social enfrenta una crisis por supuestamente anteponer el crecimiento a la seguridad. Facebook reportó que su ganancia es 17% mayor que la del mismo trimestre del año pasado y que la cantidad de usuarios mensuales aumentó un 6% a 2.910 millones.
El volumen de negocios entre julio y septiembre fue de 29.000 millones de dólares, 500 millones menos de lo que esperaban los inversores. Tras conocerse los resultados, las acciones de Facebook subían 4% en los intercambios posteriores al cierre de Wall Street. “Hicimos un buen progreso este trimestre y nuestra comunidad sigue creciendo”, dijo Mark Zuckerberg, director del grupo californiano, citado en el comunicado de resultados.
Sus dos redes sociales (Facebook e Instagram) y de mensajería (WhatsApp y Messenger) son actualmente visitadas cotidianamente por 2.800 millones de personas, lo que significa un 11% más que un año atrás y por 3.580 millones al menos una vez por mes (+12). El gigante de las redes sociales enfrenta una tormenta de críticas desde que su exempleada Frances Haugen filtró estudios internos que muestran que la empresa conocía el daño potencial que provocaban sus sitios web, lo que llevó a legisladores estadounidenses a renovar la presión para su regulación. Bajo ese escenario, The Washington Post dio a conocer un extenso reportaje en el cual revela cuál es esa supuesta fórmula intencionada para fomentar la ira y la desinformación. “Cinco puntos por enojo, uno por un “me gusta”: cómo la fórmula de Facebook fomentó la ira y la desinformación”, dice su extenso escrito dando cuenta de las supuestas malas prácticas.
El diario estadounidense cita como fuente un documento que conoció y en el cual se plasma la estrategia. “Hace cinco años, Facebook les dio a sus usuarios cinco nuevas formas de reaccionar a una publicación en sus noticias más allá del icónico “me gusta” pulgar hacia arriba: “amor”, “jaja”, “guau”, “triste” y “enojado”. Detrás de escena, Facebook programó el algoritmo que decide lo que la gente ve en sus feeds de noticias para usar el emoji de reacción como señales para impulsar contenido más emocional y provocativo, incluido el contenido que probablemente los enojará. A partir de 2017, el algoritmo de clasificación de Facebook trató las reacciones de emoji como cinco veces más valiosas que los “me gusta”, revelan documentos internos. La teoría era simple: las publicaciones que provocaban muchas reacciones emoji tendían a mantener a los usuarios más comprometidos, y mantener a los usuarios comprometidos era la clave del negocio de Facebook. Los propios investigadores de Facebook se apresuraron a sospechar una falla crítica. Favorecer publicaciones “controvertidas”, incluidas aquellas que hacen enojar a los usuarios, podría abrir “la puerta a más spam / abuso / clickbait inadvertidamente”, escribió un miembro del personal, cuyo nombre fue redactado, en uno de los documentos internos. Un colega respondió: “Es posible”. La advertencia resultó profética. Los científicos de datos de la compañía confirmaron en 2019 que las publicaciones que provocaron emojis de reacción enojada tenían una probabilidad desproporcionada de incluir información errónea, toxicidad y noticias de baja calidad”, se lee en la investigación del medio y destinada a personas con suscripción.
De acuerdo con el informe, Facebook monetizó en función de la ira de sus usuarios y sabía lo que estaba haciendo, según los documentos conocidos por el citado medio. The Washington Post aclaró que antes de publicar el informe, su documentación fue revisada por un consorcio de organizaciones de noticias. “La cultura de la experimentación se extendió profundamente en Facebook, ya que los ingenieros tiraron de las palancas y midieron los resultados. Un experimento en 2014 buscó manipular la reacción emocional de las publicaciones que se muestran en los feeds de los usuarios para que sean más positivas o más negativas, y luego observar si las publicaciones cambiaron para coincidir, lo que generó preocupaciones éticas”. Así las cosas, dice el medio, Facebook sí experimentó con sus usuarios para potenciar sus publicaciones y, por ende, sus ingresos económicos.
Facebook tiene este año el 23,7% del mercado mundial de publicidad digital según el gabinete eMarketer y está detrás de Google, número uno en el sector con el 28,6% de la torta publicitaria. El grupo Facebook está enfrentado a múltiples controversias. El coloso de las redes sociales sabía de problemas como contenidos en Instagram tóxicos para adolescentes y desinformación en Facebook, pero optó por ignorarlos y privilegió las ganancias, según varias acusaciones.
Organizaciones periodísticas como los diarios The New York Times, The Washington Post y Wired se encuentran entre los que han recibido acceso al conjunto de documentos internos de Facebook que Haugen filtró originalmente a las autoridades estadounidenses y que fueron la base de una serie de mordaces artículos del periódico The Wall Street Journal.
Facebook se ha referido a esos informes como publicaciones selectivas de algunos de sus muchos estudios internos, y destinados a proyectar la red social bajo una luz oscura e inexacta. El artículo de The Washington Post publicado el lunes afirma que Zuckerberg había firmado personalmente una iniciativa del gobierno autoritario de Vietnam para limitar la difusión de las llamadas publicaciones “antiestatales”.
“La primera rebaja a la ponderación de emoji enojado se produjo en 2018, cuando Facebook lo redujo a cuatro veces más, manteniendo el mismo peso para todas las emociones. Pero era evidente que no todas las reacciones emocionales eran iguales. La ira fue la menos utilizada de las seis reacciones de emoji con 429 millones de clics por semana, en comparación con 63 mil millones de me gusta y 11 mil millones de reacciones de “amor”, según un documento de 2020. Los científicos de datos de Facebook encontraron que las reacciones de enojo eran “mucho más frecuentes” en publicaciones problemáticas: “noticias cívicas de baja calidad, información cívica errónea, toxicidad cívica, información errónea sobre salud y contenido antivax para la salud”, según un documento de 2019. Su investigación de ese año mostró la reacción airada fue “ser armado” por figuras políticas. En abril de 2019, Facebook implementó un mecanismo para “degradar” el contenido que estaba recibiendo reacciones desproporcionadamente enojadas, aunque los documentos no aclaran cómo o dónde se usó, o cuáles fueron sus efectos”, agrega el informe de The Washington Post.