Recientemente, el FBI emitió una importante advertencia para las personas viajeras ya que, aparentemente, estafadores estarían intentando obligar a los turistas a actividades asociadas al fraude de criptomonedas y a realizar transferencias de dinero.

Por ende, la Agencia Federal de Investigación e Inteligencia insistió a las personas que viajen al Sudeste Asiático, en desconfiar de las ofertas de trabajo demasiado buenas para ser ciertas.

Estos delincuentes se acercan a sus víctimas a través de plataformas de redes sociales y sitios de empleo en línea para ofrecer puestos de trabajo en áreas como el soporte técnico o la atención al cliente y, posteriormente, se ganan toda la atención de la gente prometiendo salarios competitivos, primas atractivas, horarios flexibles y alojamiento gratuito, según indicó el anuncio del servicio público.

Al momento en que las víctimas se acercan al lugar a donde son citadas, los criminales atacan a los viajeros con amenazas de violencia y confiscación del pasaporte para que participen en planes de inversión fraudulenta en criptomonedas y otros esquemas del estilo “carnicería de cerdos”, de acuerdo con explicaciones del FBI.

Estafas por medio de aplicaciones y redes sociales. | Foto: Getty Images

¿Qué es la carnicería de cerdos?

Este es el apodo usado para referirse a las ‘estafas sentimentales’, las cuales se basan en que los criminales crean un perfil falso en las diferentes redes sociales o en aplicaciones de citas.

Tras ganarse la confianza de sus víctimas, o una vez esté “engordado el cerdo”, convencen a la persona para que transfiera dinero para una falsa oportunidad de inversión y desaparecen.

FBI advierte sobre trabajos falsos

Estos supuestos trabajos cobran más importancia luego de que los estafadores detienen al turista que será engañado, le asignan una “deuda” metiéndose por el lado de gastos de viaje, o alojamiento y comida. Después utilizan esta deuda de la víctima y le meten miedo sobre la aplicación de la ley local para intimidarla y que se quede.

Por su parte, el FBI afirmó que “A veces, las víctimas de la trata son vendidas y trasladadas de un recinto a otro, lo que aumenta aún más su deuda”.

Estafadores tienen varias estrategias para engañar a las personas. | Foto: Getty Images

Consejos del FBI para evitar caer en esta trampa

  • Investigar a la empresa de antemano.
  • Registrarse en el Programa de Inscripción de Viajeros Inteligentes (STEP, por sus siglas en inglés).
  • Mantener constantemente informados a sus familiares y amigos sobre el viaje que está realizando.

Dado que las los engaños fraudulentos de criptomonedas son cada vez más avanzados, los reguladores de California intentan acabar con el reciente uso de la Inteligencia Artificial (IA) para embaucar a inversionistas y engañar a personas desprevenidas. Pues, uno de estos planes usaba un falso CEO generado por IA para YouTube.

Sus notas de voz de WhatsApp ahora pueden ser usadas para robar a amigos o familiares, así funciona la estafa

Según expertos en ciberseguridad, algunos ciberdelincuentes se han especializado en diseñar una nueva modalidad de estafa que incorpora tácticas de ingeniería social junto a tecnologías que les permiten sintetizar la voz de una víctima para crear audios los suficientemente convincentes para engañar a otra persona.

De hecho, un informe de la firma McAffe, estima que los criminales procuran aplicar este método contra personas mayores que no cuenten con muchos conocimientos sobre dispositivos tecnológicos, puesto que ese objetivo puede caer con más facilidad en su engaño.

Por esa razón, la mayoría de los reportes sobre víctimas de estas estafas son los padres o abuelos que denuncian que un criminal clonó la voz de sus hijos o nietos.

Pero esta situación se hace más compleja a causa de la aparición de nuevas inteligencias artificiales (IA) que poseen la capacidad de copiar perfectamente la voz de una persona, lo cual aumenta exponencialmente el nivel de éxito que puede tener una estafa vía llamada telefónica.

WhatsApp nota de voz | Foto: WhatsApp

Ahora un cibercriminal, puede suplantar la identidad de cualquier persona usando la tecnología de clonación de voz de una IA, para luego fingir una situación de emergencia y así conseguir, que a víctima le transfiera dinero o le suministre información confidencial como datos de la cuenta bancaria o tarjeta de crédito.

Ante este peligro, varios expertos recomiendan tener mucho cuidado cuando se envía una nota de voz a un contacto desconocido y en especial cuando de trata de un chat en donde se le solicita al usuario que responda a cierto requerimiento mediante un audio.