Tecnología
Telegram toma medidas en página luego de la captura de su dueño, Pavel Durov; buscan frenar comportamientos delictivos
Tras la detención del fundador, la compañía ha comenzado a introducir ajustes en su servicio.
Telegram ha actualizado su página de preguntas frecuentes para introducir cambios sobre el contenido ilegal en la app, con los que ha eliminado una frase en la que se señalaba que los chats privados están protegidos y, por tanto, no procesan ninguna solicitud relacionada, incluyendo aquellas de contenido ilegal. La ha sustituido por pautas sobre cómo informar de contenido ilegal en la plataforma.
Estos cambios se han producido dos semanas después de la detención del director ejecutivo de Telegram, Pavel Durov, en Francia, que fue acusado por las autoridades de dicho país de ser personalmente responsable del uso ilegal de Telegram que hacen otros usuarios activos en la plataforma, al no frenar sus comportamientos delictivos.
Tras la detención, el fundador de la red social fue puesto en libertad provisional y, más tarde, la compañía ha comenzado a introducir ajustes en su servicio, concretamente, en su página de preguntas frecuentes para usuarios.
Dentro del apartado sobre contenido ilegal en Telegram, la compañía detallaba que “todos los chats y grupos de Telegram son privados entre sus participantes” y que, por tanto, no se procesa ninguna solicitud relacionada con ellos, de cara a mantener su privacidad, tal y como se puede ver en la página recuperada a través de archive.org.
Sin embargo, Telegram ha sustituido esta frase por pautas sobre cómo informar de contenidos ilegales en la aplicación. En concreto, ahora se detalla que los usuarios disponen de botones de ‘Reportar’ en la aplicación, que permiten marcar contenido ilegal para que sea supervisado por los moderadores “con unos pocos toques”.
Por ejemplo, en el caso de Android, se puede acceder a esta opción de ‘Reportar’ desde el menú de la aplicación. Por su parte, en iOS se debe mantener pulsado el mensaje con el contenido ilegal en cuestión y, tras ello, pinchar en ‘Reportar’.
Igualmente, la plataforma menciona que los usuarios disponen de un correo de eliminación automática, desde el que, si se envía una solicitud con los enlaces del contenido ilegal en Telegram, se revisará y eliminará en caso de que se considere ilegal por parte de los moderadores.
“Los usuarios de la UE pueden revisar la guía para el usuario de la Ley de Servicios Digitales de la UE para conocer las opciones de reportes pertinentes”, termina detallando Telegram.
Al respecto, el portavoz de Telegram, Remi Vaughn, ha aclarado en declaraciones a The Verge que el código fuente de la aplicación no ha cambiado y que los chats privados “siguen siendo privados”, aunque los usuarios siempre pueden denunciar mensajes de cualquier grupo a los moderadores e informar de “un nuevo chat entrante”, utilizando la opción de ‘Informar’ tras bloquearlo.
“El cambio en las preguntas frecuentes solo aclaró cómo denunciar contenido en Telegram, incluso a través de DSA. El texto eliminado nunca estuvo relacionado con la denuncia de contenido”, ha especificado Vaughn.
Por otra parte, se ha pronunciado el propio Durov, quien el pasado viernes compartía a través de una publicación en X su intención de introducir mejoras en la moderación de contenido en la plataforma, para “evitar que los abusadores de la plataforma Telegram interfieran en el futuro de los más de 950 millones de usuarios”.
En un comunicado en el que manifestó su descontento con la situación y calificó de “errónea” la acusación vertida por la Justicia francesa, Durov sentenció que se ha propuesto como objetivo personal asegurar que se mejoran las cosas “significativamente” en lo relacionado con la moderación de contenido en Telegram, y en evitar el contenido ilegal. “Ya hemos comenzado ese proceso internamente y compartiré más detalles sobre nuestro progreso con ustedes muy pronto”, apostilló.
Además, el fundador de Telegram incidió en que “las afirmaciones de algunos medios de que Telegram es una especie de paraíso anárquico son absolutamente falsas”, y compartió ejemplos de “millones de publicaciones y canales dañinos” que han sido eliminados.
Así, ha concluido recordando que publican informes de transparencia diarios, y que disponen de líneas directas con ONG para “procesar solicitudes de moderación urgentes más rápido”.
*Con información de Europa Press