La aparición de ChatGPT ha generado un nuevo escenario que ha permitido comenzar a dimensionar el enorme potencial que tienen las tecnologías de inteligencia artificial, dicha situación también ha planteado un debate en torno a los eventuales peligros para el ser humano que representa la acelerada evolución de las IA están sufriendo en estos momentos.

De hecho, Elon Musk, Steve Wozniak, junto a un gran grupo de expertos en tecnología de todo el mundo han firmado un documento con el propósito de hacer llamado a que se tome una pausa de seis meses en la investigación sobre inteligencias artificiales (IA), en especial las más potentes que ChatGPT 4, al advertir de que existen “grandes riesgos para la humanidad”.

En la petición publicada en el sitio futureoflife.org, piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

Creador de ChatGPT dice que no es inteligente dejar de temerle a una IA. | Foto: Getty Images

Aunque una de las principales preocupaciones está orientada en la posibilidad de que las máquinas sustituyan a los seres humanos en prácticamente todos los escenarios laborales, por lo tanto, millones de personas perderían sus empleos y eso desataría una crisis global sin precedentes.

Otros expertos han propuesto una discusión en torno al potencial uso de ChatGPT 4 como una herramienta para cometer estafas a gran escala y otros ciberdelitos, debido a que el chatbot cuenta con la capacidad de crear textos altamente convincentes en su estructura, narrativa y ortografía. De manera que esa cualidad puede ser explotada para optimizar estrategias de ‘spam’, ‘phising’ (suplantación de marcas o personas) que actualmente emplean los ciberestafadores.

El chatbot podría construir correos electrónicos maliciosos más efectivos e incluso generar cadenas WhatsApp más eficaces y en cualquier idioma, por los ciberdelincuentes ampliarían considerablemente sus capacidades para ejecutar con éxito sus timos.

De manera que, aparentemente, los criminales solo necesitarían pedirle a una inteligencia artificial que le ayude a mejorar un modelo de estafa y una vez que se haya eliminado los puntos débiles del engaño, los delincuentes pueden ir por las cuentas bancarias de sus víctimas y robarles sus ahorros en un parpadeo.

La inteligencia artificial de ChatGPT ha tenido una importante evolución. | Foto: CFOTO

¿Cómo ChatGPT también podría quitarle los ahorros a las personas?

Recientemente, Europol y otras entidades especializadas en ciberseguridad han advertido que en corrido del 2023 una gran cantidad adultos mayores en Europa han recibido al menos un correo malicioso en donde se intenta suplantar una entidad bancaria u otra compañía con la que la víctima tiene contratado un servicio.

En dichos correos electrónicos se intenta captar la atención de la víctima mediante una falsa advertencia sobre un supuesto problema con su cuenta bancaria o perfil en plataformas digitales como Netflix, PayPal, entre otras. En el contenido de la comunicación se indica que es necesario ingresar a un link o descargar una app para poder corregir la falla, además, se establece que hay un tiempo límite para ejecutar el procedimiento o de lo contrario el daño será mayor.

Las personas que muerden el anzuelo terminan ingresando a un sitio web malicioso (optimizados con una IA) que está diseñado ejecutar otros engaños encaminados a robar las claves de su tarjeta de crédito o cuenta de ahorros. En otros casos las personas descargan una aplicación espía que tiene la facultad de robar claves de acceso, además de tomar el control de la cámara y micrófono del teléfono para grabar al usuario sin que lo sepa.

Con estos datos los cibercriminales pueden robar los ahorros y hacer todo tipo de compras con la tarjeta de sus víctimas, además reúnen información íntima que puede ser empleada para un posterior chantaje y así sacar más dinero de la víctima.

Inteligencia artificial. | Foto: Getty Images

Pero el uso de una IA para mejorar continuamente diferentes modalidades de ciberestafas de suplantación, para que sean indetectables, es tan solo una de las amenazas que representan las inteligencias artificiales al servicio de criminales.

Sistemas como ChatGPT podrían ser empleados para generar códigos de programación que permitan crear aplicaciones maliciosas más eficientes, las cuales tendrían la capacidad de burlar los diferentes sistemas de seguridad que poseen los dispositivos de las víctimas.

De manera que los ciberdelincuentes rápidamente contarían con un arsenal de armas digitales para robar información confidencial de compañías importantes, espiar a cualquier persona desde sus teléfonos u otro dispositivo inteligente que haya en un hogar, entre otras prácticas.