Una nueva noticia falsa logró viralizarse provocando pánico, caos y generando movimientos en la bolsa; esta vez, la mezcla entre inteligencia artificial y Twitter fue la culpable de alertar a quienes cayeron en la trampa de los mentirosos que difundieron la información.
Y es que no era para menos, pues una cuenta llamada Bloomberg Feed, la cual contaba con la verificación de la red social, se encargó de publicar una imagen de El Pentágono, el mítico edificio donde funciona el Departamento de Defensa de los Estados Unidos, en medio de las llamas.
La imagen fue producida por una herramienta de inteligencia artificial y sugería que se había presentado una explosión en este lugar, uno de los más custodiados del mundo y símbolo del país del norte.
Pese a que el perfil de donde se emitió la fotografía contaba con la insignia que lo daba por verificado y tenía un nombre que lo relacionaba con el prestigioso medio Bloomberg, Twitter confirmó que era una cuenta falsa y procedió a darla de baja.
Las repercusiones de esta fake news fueron tales que en la bolsa el índice S&P 500 cayó 0,3 % después de conocerse la información; lo mismo pasó con el Dow Jones, el cual retrocedió un poco en tan solo cuatro minutos. Minutos después de confirmarse que esto no era cierto, se recuperaron de la caída.
La noticia tuvo tal magnitud que hasta el cuerpo de bomberos del condado de Arlington, donde se encuentra ubicado El Pentágono, tuvo que salir a desmentir la supuesta explosión. “Simplemente mirando la imagen, eso no es el Pentágono. No tengo ni idea de qué edificio es. No hay un edificio como ese en Arlington”, dijo el capitán Nate Hiner.
La difusión de esta foto y el pánico que provocó llevaron a que rápidamente estallara un debate en el que se cuestionaba el papel de la inteligencia artificial y por qué Twitter había permitido que esto pasara.
Renée DiResta, directora de investigación del Observatorio de Internet de Stanford y experta en cómo circula la desinformación, mencionó a The Washington Post que la inteligencia artificial no es la culpable, y llamó la atención sobre las herramientas que ofrece Twitter para que se pueda confiar en ese tipo de noticias de última hora.
“No se trata de un problema de IA en sí. Cualquiera con experiencia en Photoshop podría haber hecho esa imagen; irónicamente, probablemente podría haberla hecho mejor. Pero es una muestra de cómo las señales que ayudan a la gente a decidir si la información sobre noticias de última hora es digna de confianza en Twitter se han vuelto inútiles, del mismo modo que la capacidad de crear irrealidad de alta resolución se ha puesto al alcance de todo el mundo”, señaló.
Otros expertos señalaron a varias cuentas verificadas que no se encargaron de confirmar la información antes de compartirla, como sucedió con el perfil OSINTdefender, el cual se encargó de postearla a sus 336.000 seguidores; lo mismo le pasó al medio ruso RT.
Aunque luego de percatarse del error intentaron solucionarlo compartiendo el mensaje del cuerpo de bomberos de Arlington en el que aclaraban que se trataba de una noticia falsa, el alcance de este fue mucho menor y el mensaje no logró alcanzar el mismo número de visualizaciones que obtuvo la imagen falsa donde se hacía creer que El Pentágono estaba ardiendo en llamar.
El debate sobre la difusión de estas noticias sigue en marcha y ahora pone sobre la mesa la responsabilidad de los usuarios por encima de la inteligencia artificial, pues es claro que este tipo de imágenes se pueden realizar, incluso con programas de diseño, pero no pueden gozar de credibilidad por parte de los usuarios de la red social, quienes deben comprobar si todo lo que allí se publica es cierto.