Tecnología

Expertos advierten que algoritmos de redes sociales pueden promover conductas peligrosas entre jóvenes varones

¿Las redes sociales como TikTok, Instagram y Facebook son realmente seguras para los menores? Expertos señalan que los jóvenes están expuestos a contenido que podría afectar su desarrollo y bienestar a largo plazo, especialmente los varones.

Redacción Tecnología
4 de septiembre de 2024
16 years old boy playing with smartphone in the dark.
Varios varones adolescentes son expuestos a videos de violencia y contenido misógino. | Foto: Getty Images

En un mundo donde las redes sociales se han convertido en una parte integral de la vida cotidiana, un creciente número de expertos y exempleados de la industria ha comenzado a levantar la voz sobre los peligros que los algoritmos de estas plataformas representan para los jóvenes. Estos algoritmos, diseñados para maximizar la interacción, a menudo exponen a los adolescentes a contenido dañino que puede influir negativamente en su bienestar mental y emocional.

De acuerdo con el portal informativo de la BBC, Cai, un joven de 16 años en 2022, es un claro ejemplo de cómo los algoritmos de las redes sociales pueden desviar la experiencia en línea hacia territorios peligrosos. Al principio, su feed en plataformas como TikTok e Instagram estaba lleno de videos inocentes, como perros tiernos y bailes populares. Sin embargo, sin previo aviso, comenzó a recibir recomendaciones de videos violentos y misóginos.

“De la nada, me mostraron videos de gente siendo atropellada, monólogos misóginos y peleas violentas”, le relató al medio internacional Cai, quien se preguntaba por qué esos contenidos le eran sugeridos.

El joven inglés intentó utilizar las herramientas de las plataformas para indicar que no estaba interesado en ese tipo de contenido, pero sus esfuerzos resultaron inútiles. “Se te mete la imagen en la cabeza y no te la puedes sacar”, comentó, describiendo el impacto duradero de estos videos en su bienestar mental.

Getty images
Andrew Kaung asegura que trabajando en TikTok y Meta parecía muy difícil poder hacer los cambios que él pensaba que eran necesarios. Opina que las vidas de los niños y adolescentes serían mejores si dejaran de usar sus teléfonos inteligentes. | Foto: NurPhoto via Getty Images

¿Qué dicen los expertos?

Andrew Kaung, un exanalista de seguridad en TikTok, y antes en Meta, es uno de los expertos que ha levantado la voz sobre este problema. Durante su tiempo en TikTok, Kaung quedó alarmado al descubrir cómo la plataforma estaba recomendando a varones adolescentes videos que contenían violencia, pornografía y contenido misógino. “Los algoritmos están diseñados para maximizar la interacción, sin importar si esta es positiva o negativa”, explicó Kaung en el artículo publicado por la BBC de Londres.

Según Kaung, el contenido que se muestra a los usuarios de redes sociales está influenciado por sus intereses iniciales y por lo que otros usuarios con perfiles similares ven. Para muchos varones adolescentes, esto significa que pueden ser expuestos a contenido violento y sexual casi inmediatamente, ya que otros adolescentes con preferencias similares han mostrado interés en ese tipo de videos.

Kaung intentó mejorar los sistemas de moderación dentro de TikTok, proponiendo etiquetar claramente los videos según su nivel de peligrosidad y aumentar la cantidad de moderadores especializados en diferentes tipos de contenido dañino. Sin embargo, sus sugerencias fueron rechazadas. “Es como pedirle a un tigre que no te coma”, indicó, refiriéndose a la dificultad de cambiar las prácticas de una empresa cuyo interés principal es la promoción de sus productos.

Shocked caucasian teenage boy covering eyes while browsing phone on bed
Mientras que el contenido dañino que afecta a las mujeres jóvenes ha estado correctamente bajo la mira, los algoritmos que promueven el odio y la violencia principalmente entre los varones adolescentes y jóvenes estarían recibiendo menos atención. | Foto: Getty Images

Consecuencias

El impacto de estos algoritmos en los adolescentes va más allá de lo que se ve en pantalla. Cai, por ejemplo, ha visto cómo uno de sus amigos fue influenciado por el contenido misógino al punto de adoptar y expresar opiniones peligrosas sobre las mujeres. “Sientes que tienes que ponerle los pies en la tierra a tu amigo”, mencionó Cai, quien ha intentado contrarrestar esta influencia negativa.

A pesar de las preocupaciones levantadas por exempleados y expertos, las empresas de redes sociales afirman que están a la vanguardia en cuanto a seguridad para adolescentes. TikTok, por ejemplo, asegura que invierte miles de millones de dólares en seguridad y que su tecnología es capaz de detectar y retirar proactivamente la mayoría del contenido dañino. Meta, por su parte, menciona que cuenta con más de 50 herramientas para ofrecer experiencias positivas y apropiadas para adolescentes en redes como Facebook e Instagram.

No obstante, estos esfuerzos parecen insuficientes para quienes han estado en el centro del problema. Ofcom, un ente regulador de las comunicaciones en Reino Unido, ha señalado que los algoritmos que promueven el odio y la violencia entre varones adolescentes han recibido menos atención de la necesaria. Una nueva ley en Reino Unido, que entrará en vigor en 2025, obligará a las empresas de redes sociales a verificar la edad de los menores y a evitar que se les recomiende contenido dañino. En este sentido, Ofcom tendrá el poder de multar a las empresas que no cumplan con la ley.

Así las cosas, los expertos insisten que para jóvenes como Cai, la solución no está en prohibir el uso de redes sociales o teléfonos inteligentes, sino en que las plataformas escuchen y respeten las preferencias de los adolescentes. “Siento que las compañías de redes sociales no respetan tu opinión si eso les hace ganar dinero”, concluyó el joven de ahora 18 años.