TECNOLOGÍA
¿Adiós, noticias falsas? Nueva restricción de YouTube para contenidos sobre covid-19
La red social continúa con su trabajo para combatir las noticias falsas sobre la pandemia.
YouTube anunció el miércoles que eliminará contenidos que contradigan el consenso de los expertos sobre las vacunas contra la covid-19, en una actualización de sus políticas para impedir la difusión de información errónea en relación con la pandemia.
La medida es la más reciente de las plataformas en línea que luchan por contener la propagación de contenidos engañosos o falsos sobre el coronavirus y los tratamientos.
YouTube, el servicio de videos propiedad de Google, dijo que estaba ampliando su política de desinformación médica “para eliminar las afirmaciones sobre las vacunas covid-19 que contradicen el consenso de expertos de las autoridades sanitarias locales o de la Organización Mundial de la Salud”.
La red indicó que estaba actuando de manera anticipada ante el eventual lanzamiento de una o más vacunas y el escepticismo entre muchas personas sobre su utilidad.
El contenido que se eliminará es el que incluya afirmaciones de que una vacuna podría matar o causar infertilidad a las personas, o que se implantarán microchips a quienes reciban una vacuna.
YouTube dijo que desde febrero ha eliminado más de 200.000 videos con información “peligrosa o engañosa” sobre el virus, incluidas afirmaciones no verificadas sobre transmisión o tratamientos sin fundamento.
En una acción relacionada, Facebook anunció el martes la prohibición de los anuncios que desalientan a las personas a vacunarse.
Los gigantes tecnológicos han sido acusados de permitir que prosperen los movimientos contra las vacunas.
Plataformas en contra de las noticias falsas sobre la covid-19
Con más de 1,6 billones de usuarios, Facebook es una de las redes sociales más populares en el mundo. Durante la pandemia su uso se ha multiplicado y, como consecuencia, también la publicación de noticias falsas en la plataforma.
En el reporte del segundo trimestre de 2020, la red social asegura haber eliminado más de 7 millones de publicaciones que contenían información falsa sobre la covid-19, incluidas algunas sobre falsas medidas preventivas o curas milagrosas.
Otras 98 millones de publicaciones sobre el tema fueron marcadas con una advertencia de información engañosa en la plataforma. En estos casos el equipo de fact checking (detector de noticias falsas) no encontró suficientes razones para justificar eliminarlas.
Bajo estos parámetros, la red social eliminó en agosto un video publicado en la página oficial del presidente Donald Trump en el que afirmaba que los niños eran “prácticamente inmunes” al virus.
Facebook confirmó que durante el periodo de abril a junio su estrategia de moderación estuvo automatizada con inteligencia artificial, pues la coyuntura de la pandemia obligó a la mayoría de moderadores humanos a trabajar desde casa.
En ese mismo periodo, la red social eliminó cerca de 22 millones de publicaciones que contenían discurso de odio y 8,7 millones de publicaciones conectadas con organizaciones extremistas. Esto como parte de las políticas reforzadas de la compañía.
Por su parte, Twitter añadió un nuevo sistema para señalar las noticias falsas y así preparar para que sus usuarios estén bien enterados de todo lo que pasa.
La red social ya venía trabajando en el control de noticias falsas propagadas en la plataforma, haciendo referencia en sus sistema de etiquetas a que la firma lleva meses trabajando en esta función, hasta que por fin pudo llevarla a la realidad.
El fin es que en cualquier información que sea publicada allí, el usuario tendrá la posibilidad de ver mediante un mensaje si el trino es verdadero o no, generando una señal de alerta que tapa la información que contiene, poniendo en su conocimiento que lo que hay detrás no está probado.
Para esto, habrá tres niveles dependiendo del uso que haga la cuenta de datos falsos: el primero no tendrá revisión ninguna si no ha recibido informes de información falsa; el segundo, y calificado como más leve, marcará los tuits con información posiblemente falsa de un tema en concreto, siempre y cuando haya recibido reportes; el tercero funciona si recibe muchos reportes, donde se colocará una señal de aviso, y el cuarto es que una vez verificados los datos por la compañía, la misma podrá borrar el tuit.