Un nuevo modelo de estafa ha estado causando preocupación en el mundo los últimos meses y en Colombia no es la excepción, ya que se estaría presentando en el país. La Fiscalía General de la Nación ya lanzó una advertencia sobre estafas utilizando esta tecnología.
Según señaló el ente investigador, los delincuentes se están valiendo de la inteligencia artificial para clonar las voces de familiares, amigos e incluso de empleados de instituciones financieras, con el fin de hacer creer a las víctimas que se están comunicando con alguien de confianza.
Este modelo sofisticado de estafa, que le están dando dolores de cabeza a más de un país, también se ha estado presentando en Colombia. En esta nueva modalidad, los estafadores presentan situaciones de extrema urgencia a sus víctimas para que estas cedan ante la presión y entreguen datos personales, como claves de acceso, datos de cuentas bancarias o realicen transferencias de dinero.
¿Qué hacer para no caer en estas estafas?
Entre las recomendaciones se encuentran no confiar en llamadas inesperadas y sospechar cuando le están pidiendo claves de acceso o datos bancarios. En este caso, lo más recomendable es colgar y comunicarse directamente con la persona que supuestamente le está pidiendo la información.
Así mismo, es ideal tener una protección extra en todas sus cuentas mediante la verificación de dos factores en correos electrónicos, cuentas en redes sociales y cuentas bancarias. Adicionalmente, mantenga las contraseñas seguras y procure cambiarlas frecuentemente para proteger su seguridad y, lo más importante, manténgase informado sobre las nuevas modalidades de estafa, así evitará o disminuirá el riesgo.
El deepfake como modalidad para estafar usando IA
Este tipo de estafas se están haciendo muy común, incluso en países como Estados Unidos. Pues se han registrado varios casos en los que se suplanta no solo la voz de la persona, sino también su rostro en una videollamada, convenciendo a las víctimas de que se están comunicando con un familiar o amigo.
Mediante distintas aplicaciones de IA, los ciberdelincuentes han podido clonar voces e imágenes de personas. Incluso, pueden lograr interceptar varias llamadas de las víctimas para identificar acentos, expresiones y palabras clave para convencer de que se trata de la misma persona.
Así mismo, es fundamental tener cuidado con el contenido que se comparte en redes sociales sobre uno mismo, debido a que este tipo de delincuentes pueden lograr tomar imágenes y contenido de voz en internet para duplicarlas y así cometer estafas.
Otra de las formas más comunes de estafas y que usan los ciberdelincuentes es el phishing, pues es una forma de estafa en la que los criminales se hacen pasar por entidades legítimas para engañar a los usuarios y obtener información confidencial. Estas estafas suelen seguir algunos patrones similares, pues, los estafadores usan un lenguaje muy profesional y formal para dar credibilidad a sus mensajes.
Una vez el receptor muestra interés, estas personas solicitan información personal, como datos bancarios o números de seguridad social, con la excusa de realizar pagos o verificar identidad.
Ojo, este paso es la clave de la estafa, pues ahí logran obtener su información personal para fines fraudulentos y luego utilizan técnicas de manipulación emocional en donde varios usuarios caen en la trampa.
Por último, no cabe duda que este tipo de tecnologías ofrece innumerables oportunidades de avance e innovación, pero también representa varios desafíos y riesgos que no pueden darse por alto. Es importante saber reconocer y garantizar el desarrollo y utilidad de la misma de forma responsable, ética y beneficiosa para la sociedad.
Incluso, es crucial adoptar medidas de ciberseguridad cómo proteger la privacidad de los datos, promover la transparencia y la gobernanza de la inteligencia artificial para lograr sostener un futuro más seguro, optando por la ayuda de esta tecnología en las tareas diarias de los usuarios.