Tecnología
De eso tan bueno no dan tanto: así es como ChatGPT es usado para desocupar su cuenta bancaria en minutos
Son muchas las tácticas que usan los ciberdelincuentes para atacar a sus víctimas.
Durante este año, sin lugar a dudas, ha habido un tema en tendencia para lo que respecta a la tecnología, el avance de las inteligencias artificiales (IA). Desde el incremento en popularidad de la ya reconocida ChatGPT, no son solo cada vez las personas que la utilizan, sino también las nuevas IA que buscan ofrecer ciertas facilidades para el ser humano.
ChatGPT es capaz de realizar tareas por el ser humano, a través de determinados pasos o instrucciones que sigue de una manera lógica, incluso dando respuestas coherentes a preguntas a través de un lenguaje natural.
Aunque la herramienta fue diseñada para facilitar la vida los usuarios, los ciberdelincuentes siempre buscan cualquier oportunidad para aprovecharse de la vulnerabilidad de las plataformas en línea y por medio de estas, atacar a sus víctimas.
Así usan ChatGPT para vaciar sus cuentas bancarias
Son varias las tácticas que día a día emplean los delincuentes para lograr sus objetivos por medio de internet, de acuerdo con un informe de ESET, compañía especializada en seguridad informática, una nueva modalidad de estafa con ChatGPT salió a la luz, ¿de qué se trata?.
Lo más leído
Pues bien, se trata de una campaña de un sitio de phishing que está activa a la espera de usuarios que busquen la última versión paga del chatbot, desarrollado por OpenAI.
Estos anuncios falsos fueron detectados por medio de una búsqueda general de Google “Chat GPT 4″, o “Chat GPT for Android”, en donde los primeros resultados muestran una serie de URL falsas, que una vez sean abiertas por el usuario, está en riesgo de caer en una trampa peligrosa.
Cuando la persona decide acceder al enlace, notará que la página está “perfectamente” construida, pues aspectos como el logo, el nombre y el diseño de sitios suele ser muy similar al original, no obstante, hay una serie de detalles que le van a permitir identificar si se trata de la página oficial.
Cuando el usuario ingresa, para acceder al servicio, la página le va a solicitar unos datos de registro que no son muy comunes, es decir, no le va a exigir un correo de confirmación de su cuenta, lo que puede significar una señal de alerta, porque como bien sabe, la mayoría de estos servicios legítimos requieren de una cuenta de correo para iniciar sesión.
La pregunta recae en ¿por qué si se trata de una táctica para estafar, no es relevante el correo electrónico?Pues bien, lo que realmente le interesa a los ciberdelincuentes es la supuesta suscripción que usted como usuario va a obtener para acceder a la versión paga de ChatGPT, de modo que, los datos de su tarjeta de crédito son lo que importa.
“La forma de engaño es siempre la misma: simular ser un sitio real y hacer que los usuarios caigan en la trampa, aprovechando la popularidad creciente del chatbot”, indicó un vocero de la compañía mencionada.
¿Cómo evitar caer en la trampa?
De acuerdo con expertos, es importante que el usuarios tenga presente una serie de consejos que le pueden ayudar a identificar un sitio no legítimo que está diseñado para atentar contra su seguridad y privacidad.
- Sea precavido a la hora de instalar una aplicación o suscribirse a algún servicio, No se confié a la primera.
- Asegure de analizar detalladamente la URL que lleva el anuncio, verifique el dominio, si hay errores de ortografía o si hay exceso de caracteres especiales.
- Abstenerse de proporcionar sus datos bancarios hasta que no esté seguro de que se trata de un sitio confiable.
- Es importante que sus dispositivos tecnológicos los mantengan actualizados, ya que estos incluyen nuevos parches de seguridad que le ayudarán a detectar un malware o virus.
- Puede confirmar si el sitio web es seguro, acudiendo a otros canales como el correo, WhatsApp o demás plataformas que aseguren la legitimidad del servicio.
- Como última recomendación, si fue víctima de un software malicioso, desconecte su internet y busque ayuda de un profesional.