Tecnología

Meta revela cómo busca proteger a los usuarios

La compañía destaca que busca recalcar el contenido transparente y legítimo.

6 de junio de 2023
Getty Images
Mejorar las políticas de seguridad en las redes sociales es prioridad para meta. | Foto: Getty Images

El Consejo Asesor de Contenido de Meta asegura que sus recomendaciones están ayudando a la compañía tecnológica, propietaria de Facebook e Instagram, a proteger a los usuarios, el contenido legítimo y a fomentar la transparencia en sus plataformas.

En este mismo sentido, cabe recordar que el Consejo está formado por un grupo amplio y diverso de expertos de todo el mundo especializados en seguridad en internet. Sus miembros ofrecen conocimientos, perspectivas y estadísticas específicas para definir el enfoque que la empresa desea promover para proteger a sus usuarios.

Getty images
Meta le apunta a la seguridad de sus usuarios. | Foto: Getty Images

Este ha reconocido ahora que, desde que compartió sus primeras valoraciones sobre los servicios de Meta, la compañía, ha implementado muchas de sus recomendaciones, gracias a las cuales se ha conseguido que “sea más transparente y justa en el trato que da a sus usuarios”.

Fue en 2022 cuando Meta realizó por primera vez “cambios sistémicos en sus reglas y cómo se aplican”, lo que supone un avance en su trabajo por ofrecer la mejor experiencia de usuario en el uso de sus servicios. De ahí que considere que hayan habido avances en su trabajo a pesar de que “aún queda mucho por hacer”.

En primer lugar, el Consejo ha matizado que la recomendación que ha realizado con más frecuencia es la de que la compañía informe a los usuarios del motivo de la eliminación de ciertos contenidos.

Para ello, Meta ha introducido notificaciones “a nivel mundial” que informan a los usuarios la política o norma específica que hubiesen violado, como la incitación al odio, la intimidación o el odio.

Facebook meta
Meta le apunta a la transparencia en sus contenidos. | Foto: REUTERS

Asimismo, según recomendaciones del Consejo, la compañía ha implementado un sistema que alerta a los usuarios de si una revisión, bien automática bien llevada a cabo por un trabajador, concluyó con la eliminación de su contenido.

Por otra parte, el Consejo ha insistido que sus recomendaciones “hacen que las reglas de Meta sean más claras y consistentes” y que, en respuesta a sus propuestas, la compañía “presentó un Protocolo de política de crisis” para que sus respuestas a situaciones críticas “sean más consistentes”.

Con ello, ha recordado los planes recientemente anunciados por Meta para crear un nuevo equipo de coordinación de crisis”, que supervisará las operaciones 24 horas al día y 7 días a la semana para “crisis inminentes y urgentes”.

Contra las fake news

En los últimos meses, Meta también ha revisado su política de Individuos y Organizaciones peligrosas y creado un Estándar Comunitario sobre desinformación, para reunir sus reglas “en un solo lugar”, según este documento.

El Consejo también ha subrayado que gracias a sus consejos, ha ayudado a proteger la libertad de expresión de periodistas y activistas o defensores de los derechos humanos. Asimismo, se atribuye el logro de haber salvaguardado “la voz de los usuarios durante las transformaciones políticas y sociales”.

Facebook meta
Meta le apunta a la seguridad de sus usuarios. | Foto: REUTERS

Además, ha recordado que, en base a sus recomendaciones, Meta ha introducido un sistema centrado en la concienciación sobre los síntomas del cáncer de mama, a fin de que el contenido relacionado con esta enfermedad no se etiquete de forma incorrecta (como desnudos). En este sentido, el Consejo ha asegurado que Meta “mejoró sus técnicas para identificar el contexto del cáncer de mama en el contenido de Instagram”.

Por último, esta agrupación ha insistido en que estas mejoras, vigentes desde julio de 2021 y entre el 26 de febrero y el 27 de marzo de este año, han contribuido a que unos 2.500 contenidos que anteriormente se habrían eliminado automáticamente, se reservaran para una revisión humana.

“Si bien es difícil contextualizar esto sin un denominador, esta primera métrica muestra cómo nuestras recomendaciones ayudaron a Meta a mitigar un riesgo sistémico resultante de la forma en que la empresa manejaba ese tipo de contenido”, ha puntualizado el Consejo.

Un modelo extrapolable

El Consejo asesor ha comentado que, si bien la Junta se diseñó para probar un enfoque independiente para la moderación de contenido, “también podría aplicarse a otras empresas” en caso de tener éxito.

Así, considera que en los últimos tres años ha adquirido “una gran experiencia en supervisión independiente”, lo que puede ayudar a las empresas a tomar decisiones “más sólidas basadas en el respeto por la libertad de expresión y otros derechos humanos”.

*Con información de Europa Press.