Tecnología
La temida estafa telefónica que lo deja sin un peso al usar las voces clonadas de sus familiares
Los delincuentes usan la inteligencia artificial para robar fácilmente el dinero de las víctimas.
Es innegable que la tecnología ha aportado múltiples beneficios a la vida humana. Con su constante avance, ha facilitado la vida a muchas personas gracias a herramientas como el internet. No solo permite el acceso a una amplia cantidad de información y contenido multimedia en el ámbito del entretenimiento, sino que también es el pilar fundamental para la comunicación a través de redes sociales y aplicaciones de mensajería.
Sin embargo, con el paso de los años, también se ha convertido en un peligro para la seguridad en línea, dado que los ciberdelincuentes han usado la tecnología como herramienta principal para cometer todo tipo de delitos informáticos, que van desde enormes estafas hasta la suplantación de identidad.
En ese sentido, la llegada de la inteligencia artificial ha incrementado aún más este miedo. Este sistema sirve para automatizar tareas, hacer búsquedas personalizadas, redactar textos, hacer traducciones, crear currículums, ofrecer tutoriales, crear recetas, entre muchas otras cosas que optimizan el tiempo y mejoran la productividad de los usuarios. Pero más allá de sus incontables ventajas, la IA está siendo usada por los criminales para clonar las voces de los familiares de los usuarios y así poder engañar a los ciudadanos.
La nueva estafa telefónica que usa la inteligencia artificial para clonar voces
De acuerdo con el portal web Computer Hoy, el timo fue dado a conocer por el Instituto Nacional de Ciberseguridad de España (INCIBE). La estafa tiene como objetivo llamar a sus víctimas y mantenerlas en línea durante unos cuantos segundos para obtener su voz y luego clonarla.
Lo más leído
Según reseña la fuente, una mujer denunció en la entidad que había recibido la llamada de un número desconocido, el cual le dijo: “¡Hola! No te puedo llamar, envíame un mensaje a este número...”. Para la mujer fue un poco extraño recibir estas palabras por parte de su pareja, por lo que, en lugar de hacer lo que se le indicaba, decidió comunicarse con él para verificar que todo era real. Así pudo confirmar con su esposo que él no había sido quien la había llamado.
Según los expertos en ciberseguridad, no se necesita mucho para que los ciberdelincuentes puedan obtener un fragmento de voz, ya sea a través de un video compartido en redes sociales o un audio difundido por aplicaciones de mensajería que se haya filtrado.
Sin embargo, hay casos en los que los delincuentes realizan llamadas en las que esperan que la víctima hable para luego colgar. Después de esto, se escucha un pitido donde solicitan datos personales, y es precisamente en ese momento cuando obtienen lo que tanto necesitan: su voz.
La clonación de voces con inteligencia artificial no es una sorpresa, ya que es una de las muchas tácticas que los criminales usan para suplantar identidades y conseguir dinero en su nombre, llegando incluso a dejar vacías las cuentas bancarias de sus víctimas.
En este tipo de situaciones, lo mejor es alertar a otros familiares y personas cercanas sobre lo que está ocurriendo para que no caigan en la trampa si reciben una llamada similar. Asimismo, se debe bloquear el número de teléfono desde donde se recibió la llamada. Además, es importante informar a las autoridades correspondientes en su país para que tomen las medidas necesarias y emitan una alerta a la ciudadanía, dado que esta modalidad se ha venido expandiendo en Latinoamérica.