Estados Unidos
El algoritmo de Facebook no altera las creencias de los usuarios, según estudio
Los resultados cuestionan las narrativas populares que culpan a las redes sociales de los problemas de la democracia estadounidense contemporánea, afirman los realizadores de la investigación.
Un proyecto de investigación sobre Facebook en torno a las elecciones presidenciales de 2020 en Estados Unidos publicó sus primeros resultados el jueves que, contra todo pronóstico, señalan que su algoritmo no influye en la opinión de sus usuarios.
El trabajo es fruto de la colaboración entre Meta -la empresa matriz de Facebook e Instagram- y un grupo de académicos de universidades de Estados Unidos a los que se dio amplio acceso a datos internos de la compañía y que inscribieron a decenas de miles de usuarios para realizar experimentos.
El equipo académico redactó cuatro artículos sobre el papel del gigante de las redes sociales en la democracia estadounidense, que se publicaron en las revistas científicas Science y Nature.
En general, el algoritmo resultó ser “extremadamente influyente en las experiencias de la gente en la plataforma”, afirmaron los directores del proyecto, Talia Stroud, de la Universidad de Texas en Austin, y Joshua Tucker, de la Universidad de Nueva York.
“Pero también sabemos que cambiar el algoritmo incluso durante unos pocos meses no es probable que cambie las actitudes políticas de la gente”, dijeron, según las respuestas de los usuarios en las encuestas después de participar en experimentos de tres meses de duración.
Los autores reconocieron que esta conclusión podría deberse a que los cambios no se produjeron durante el tiempo suficiente para que tuvieran efecto, dado que Estados Unidos lleva décadas polarizándose cada vez más.
Sin embargo, “estos resultados cuestionan las narrativas populares que culpan a las cámaras de eco de las redes sociales de los problemas de la democracia estadounidense contemporánea”, escribieron los autores de uno de los artículos, publicado en Nature.
- “Burbujas de filtros” -
El algoritmo de Facebook utiliza el aprendizaje automático para decidir qué publicaciones aparecen en primer lugar en los feeds de los usuarios en función de sus intereses. Ha sido acusado de dar lugar a “burbujas de filtros” y permitir la difusión de información errónea.
Los investigadores reclutaron a unos 40.000 voluntarios mediante invitaciones en sus perfiles de Facebook e Instagram, y diseñaron un experimento en el que un grupo estaba expuesto al algoritmo normal, mientras que el otro veía las publicaciones ordenadas de más recientes a más antiguas.
Facebook utilizaba originalmente un sistema cronológico inverso y algunos observadores han sugerido que volver a él reducirá los efectos nocivos de las redes sociales.
El equipo descubrió que los usuarios del grupo del feed cronológico pasaban la mitad de tiempo en Facebook e Instagram que los del grupo del algoritmo. En Facebook, los del grupo cronológico vieron más contenidos de amigos moderados, así como más fuentes con audiencias ideológicamente mixtas. Pero el feed cronológico también aumentó la cantidad de contenido político y poco fiable visto por los usuarios.
A pesar de las diferencias, los cambios no provocaron cambios detectables en las actitudes políticas medidas.
Meta acogió con satisfacción las conclusiones generales.
“Se suman a un creciente número de investigaciones que demuestran que hay pocas pruebas de que las redes sociales provoquen una polarización perjudicial o tengan un impacto significativo en actitudes, creencias o comportamientos políticos clave”, dijo Nick Clegg, presidente de Asuntos Mundiales de Meta.
*Con información de AFP.