Anuncios que tengan que ver con religión, política y salud desaparecerán de estas redes sociales
De acuerdo con expertos citados por medios de comunicación estadounidenses como el New York Post, actualmente existiría una serie de argumentos en contra de Meta que sí pueden considerarse una barrera para la compañía salga bien librada de estas acusaciones. | Foto: AFP / Kirill KUDRYAVTSEV

Redes sociales

La amenaza legal que afronta Meta por muertes y suicidios de algunos de sus jóvenes usuarios

Expertos dicen que la compañía, incluso siendo consciente del daño ocasionado a sus usuarios más jóvenes, prefirió hacer prioritario su interés económico.

11 de agosto de 2022

En medio del incesante auge de las redes sociales, una nueva polémica apunta a la compañía Meta, la antes conocida como Facebook y dueña de esa plataforma homónima, además de otras como Instagram, debido a una serie de recursos legales que padres de familia en Estados Unidos están interponiéndole.

Estos papás han señalado que la empresa Meta es la responsable, por la falta de cuidado en los contenidos que difunde, de amplios escenarios en los que menores de edad han caído en situaciones de depresión, trastornos alimenticios e incluso suicidio; estos se sumarían, además, a otra serie de decesos relacionados con intentos de realización de retos virales.

De acuerdo con expertos citados por medios de comunicación estadounidenses como el New York Post, actualmente existiría una serie de argumentos en contra de Meta que sí pueden considerarse una barrera para la compañía salga bien librada de estas acusaciones, como es su intención. Y el argumento en cuestión es una serie de ‘filtraciones’ dadas a conocer por una de las denunciantes.

Se llama Frances Haugen y, en el marco de una acusación que ella presentó en 2021 contra esa tecnológica, refirió la existencia de pruebas de que algunos de los contenidos difundidos e incluso priorizados en dichas redes sociales han derivado en problemas de autoestima para los jóvenes.

Haugen argumenta que dichos problemas han sido consecuencia de la percepción que tienen los jóvenes sobre su imagen corporal, lo que ha derivado en problemas mentales y de comportamiento en algunos individuos de la etapa adolescente.

De acuerdo con los argumentos, lo grave de la situación, más allá de los efectos mismos, es la conducta adoptada por la compañía: aduce que la empresa, pese a ser consciente de dichos riesgos, apostó por no querer ver las consecuencias de sus decisiones, decidió irse por la oportunidad de seguir creciendo y esto primó por encima del bienestar de los propios usuarios o internautas.

¿Solo Meta?

El mismo argumento podría ser usado por las ‘víctimas’ de otras redes sociales como Snapchat, incluso la compañía responsable de TikTok; en estas, de acuerdo con medios internacionales, también se han expuesto escenarios que, de no contar con la debida orientación, terminan siendo contraproducentes para el público adolescente.

El New York Post cita de hecho a Matthew Bergman, fundador del Social Media Victims Law Center, una entidad que asesora a decenas de familias de víctimas y que advierte la difícil situación a la que se ven abocados los niños.

El experto, según explica el New York Post, actualmente libra una batalla en contra de la denominada Sección 230 de la Ley de decencia en las comunicaciones, serviría de amparo para estas empresas de redes sociales y plataformas tecnológicas frente a una serie de demandas que las culpan de esta clase de daños en los usuarios.

En el marco de dicha batalla, el experto ha buscado respaldar sus argumentos en las filtraciones de Haugen, persiguiendo el fin de garantizar la compensación a algunas de las familias víctimas, así como que quede un precedente que obligue a empresas como Meta a cambiar su forma de actuar.

La Sección 230 les ha permitido a las plataformas defenderse de acusaciones similares en el pasado, refugiándose en que su comportamiento frente a algunos contenidos calificados como peligrosos por algunos sectores de sus usuarios responde a la defensa del derecho de libertad de expresión de otra porción de ellos.

También, bajo dicha Sección 230, las plataformas web han logrado no ser vistas como ‘legalmente responsables’ por el contenido publicado por sus usuarios.

No obstante, el argumento del experto apunta a que, si bien la red social no sería responsable de lo que publican sus usuarios, sí lo es del diseño de la plataforma y de la forma en la que esta ‘privilegia’ cierto contenido, que resulta siendo dañino para quienes lo consumen.

Así, Bergman acusa a Meta de enrutar, de forma intencional, y con el objetivo de lograr mayores interacciones y visitas, a personas vulnerables hacia contenidos que les resultan dañinos.

Según precisa el New York Post, de momento, Meta no se ha manifestado tras la solicitud de comentarios.

Otro caso que hace parte de esta causa y que fue referido por medios estadounidenses es el de una menor de 14 años, identificada como Englyn Roberts, habitante del estado de Louisiana, quien en 2020 se quitó la vida.

En medio de la investigación por la muerte, los padres lograron evidenciar el fuerte flujo de contenido que era dañino para su salud mental, y lo encontraron en plataformas como Instagram y TikTok; incluso, algunos de estos videos hallados incitaban a la toma de la fatídica decisión.

La investigación ha determinado que, además de consumir ese contenido, la niña había comenzado a compartirlo con sus amigos, y que las autolesiones eran uno de los temas divulgados. Tanto, que el método usado por la niña para quitarse la vida, al suspenderse de un cable, lo aprendió a través de un video que vio en redes sociales.

Aunque, inicialmente, los padres de la niña habían recibido con resignación la muerte de la menor, tras conocer las filtraciones de Frances Haugen, decidieron poner su caso como soporte para evidenciar que lo que se demandaba sí operaba de tal manera.

Así, en septiembre de 2021, la demanda radicada sobre la muerte de Englyn advierte que la niña murió como resultado de “una lesión psíquica causada por su uso adictivo de Instagram, Snapchat y TikTok”.

En ese sentido, expertos han advertido que, frente a la Sección 230, uno de los principales argumentos es que esta protege a los usuarios de su libre expresión, pero no faculta a las plataformas a emplear la intimidad de los usuarios para privilegiar contenidos que sean peligrosos para estos mismos.

El New York Post aclara que la totalidad de los casos que hoy empujan la causa no se refiere a personas muertas, también existen casos de personas vivas que refieren haber sido víctimas de adicción a redes sociales y que, afortunadamente, lograron darse cuenta a tiempo y pudieron tomaron cartas en el asunto.