Ciberdelincuentes aprovechan la fascinación que genera la tecnología de inteligencia artificial (IA) generativa para instalar ‘malware’ en los dispositivos, con campañas maliciosas cuyo alcance se podría limitar si se tomaran ciertas medidas, como verificar la fuente de cualquier anuncio y observar la coherencia de su contenido.
Para perpetrar sus ataques, los agentes maliciosos aprovechan herramientas como Google Bard, que tiene la capacidad de generar texto y contenido creativo, que utilizan como señuelo para hacer creer a sus víctimas que se están descargando la versión legítima, cuando en realidad lo que se instala es ‘software’ malicioso.
Así lo ha denunciado recientemente el equipo de expertos en ciberseguridad de Eset Research, que ha detectado una amenaza en Facebook que se mueve con la promesa de ofrecer la última versión del ‘bot’ conversacional de Google.
Claves para no caer en una estafa creada con IA
Para evitar caer en la trampa, Eset ha explicado ha compartido las prácticas de seguridad que considera claves y eficientes para prevenir los fraudes basados en inteligencia artificial.
En primer lugar, se deben verificar las fuentes, esto es, saber si es legítimo el anuncio en el que se propone la instalación del ‘bot’, así como los enlaces que presuntamente redirigen al sitio de descarga.
En este sentido, la empresa de ciberseguridad ha puntualizado que el uso de una ‘url’ acortada y sin referencias claras al producto o a la empresa “es una clara señal de alarma” de que la fuente no es confiable.
Por otra parte, es conveniente examinar las direcciones de los enlaces antes de hacer clic en ellos para determinar si existen “conexiones evidentes” con Google, así como revisar la coherencia del contenido.
En caso de que el texto del anuncio sea confuso, no tenga cohesión, esté mal escrito o incluya algún error gramatical, puede ser una señal de que se trate del anuncio fraudulento de un servicio.
Otro punto importante a la hora de determinar si estamos ante la oferta de un servicio real es el tipo de comentarios o reseñas que registra, puesto que si son similares podrían haber sido resultado del trabajo de un ‘bot’. También puede ser alarmante que todas las valoraciones sobre un producto sean positivas.
No está de más, por otra parte, proceder al escaneo de enlaces y archivos antes de interactuar con ellos, empleando soluciones de seguridad. Tampoco es muy recomendable abrir archivos descargados protegidos con contraseñas, a menos que sea clara su autenticidad.
Por último, es fundamental mantener actualizados tanto el sistema operativo como el navegador o las aplicaciones instaladas en el dispositivo, con sus versiones y parches de seguridad más recientes, a fin de evitar posibles vulnerabilidades.
Tipos de estafas con inteligencia artificial más frecuentes
Suplantación de identidad
Los estafadores emplean la IA para perfeccionar la suplantación de identidad digital, de manera que pueden hacerse pasar por personas reales en línea de forma más efectiva. Esto trae graves consecuencias, como daños a la reputación de la víctima o millonarias pérdidas para una marca reconocida.
Estafas de inversión y comercio
Los algoritmos usados para entrenar a la inteligencia artificial también pueden ser utilizados para manipular las finanzas y así ejecutar estafas de inversión. Los ciberdelincuentes acuden a bots para difundir información falsa y engañar a los inversores.
Phishing
Los correos electrónicos de phishing es uno de los más utilizados para estafar a las personas; sin embargo, con el crecimiento de la inteligencia artificial, los estafadores pueden hacer que los correos electrónicos parezcan más auténticos y personalizados. Por tal motivo, no se recomienda hacer clic en enlaces maliciosos.
Estafas de soporte técnico
Los estafadores pueden coger ‘chatbots’ impulsados por IA, con el propósito de hacerse pasar por agentes de soporte técnico. Esta tecnología puede engañar a las personas haciéndolas pensar que los dispositivos están infectados con virus.
Con información de Europa Press