Tecnología

Cuidado: la inteligencia artificial ChatGPT podría poner en riesgo su privacidad

Hackeos, robo de información personal o hasta noticias falsas estarían entre los riesgos de esta IA.

10 de mayo de 2023
Tecnología
El uso humano podría aprovecharse de las capacidades de ChatGPT para realizar acciones negativas. | Foto: Datawifi

Durante este año, sin lugar a dudas, ha habido un tema en tendencia para lo que respecta a la tecnología, el avance de las inteligencias artificiales (IA). Desde el incremento en popularidad de la ya reconocida ChatGPT, no son solo cada vez las personas que la utilizan, sino también las nuevas IA que buscan ofrecer ciertas facilidades para el ser humano.

ChatGPT es capaz de realizar tareas por el ser humano, a través de determinados pasos o instrucciones que sigue de una manera lógica, incluso dando respuestas coherentes a preguntas a través de un lenguaje natural.

Una foto de ChatGPT tomada en Jiangsu (China) el 6 de febrero de 2023
Cada vez más personas recurren a ChatGPT para sus labores diarias. | Foto: Future Publishing via Getty Imag

Sin embargo, alguno de estos beneficios podrían salir un poco caros, y sin referirse a un factor monetario. En algunas ocasiones, internet se puede convertir en un campo minado de riesgos para la información confidencial y los datos personales.

Para comprender esto es necesario analizar el funcionamiento de ChatGPT, esta IA se alimenta de información presentada por los propios usuarios a través de las conversaciones que entablan con esta tecnología, lo que puede contener información sensible no solo para personas sino también para empresas, equivocación en la que han llegado a caer múltiples personas a pesar de las advertencias, como lo explicó Ueric Melo, Gerente de Ciberseguridad y Privacidad de la empresa Genetec:

“A pesar de la recomendación de OpenAI para que no se comparta información crítica de las empresas y personas en las conversaciones, una investigación de Cyberhaven muestra que el 4,9 % de los empleados usaron información de la empresa en el chat, y el 2,3 % usaron información corporativa confidencial.” expresó Melo.

Esto ha llevado a escenarios posteriores donde incluso algunas personas con cierto nivel de conocimiento informático se aprovechan de las capacidades de esta inteligencia artificial para pedirle consejos a la hora de hackear un sistema, acceder a datos privados de una empresa, o instrucciones para vulnerar redes de seguridad cibernéticas.

No es lo único

A pesar de que lo mencionado ya parece bastante peligroso, no es lo único que debe generar alerta en los usuarios, ChatGPT es capaz de incluso construir noticias falsas a través de ciertos contextos que den paso a desinformación dentro de la sociedad.

Según el informe, en el caso concreto de la IA, el 50%  de las empresas cree que creará empleo, mientras que el 25 % cree que lo reducirá.  (Photo illustration by Nikolas Kokovlis/NurPhoto via Getty Images)
Algunas personas aprovechan ChatGPT para generar estrategias que ayuden a delinquir. | Foto: NurPhoto via Getty Images

Teniendo en cuenta estos hechos, es importante que los usuarios utilicen este servicio tecnológico con responsabilidad y conciencia respecto a los riesgos que se podrían enfrentar, aún más tratándose de un espacio que crece de manera exponencial en cuanto a popularidad, y que solo en enero de este año contó con aproximadamente 100 millones de usuarios, situación ante la cual Melo también realizó un llamado a la sociedad:

La inteligencia artificial de ChatGPT puede ser usada por cibercriminales para estafar a las personas.
La inteligencia artificial de ChatGPT puede ser usada por cibercriminales para estafar a las personas. | Foto: Composición de SEMANA con imágenes de Getty Images

“Esta nueva alternativa es una herramienta poderosa y prometedora que puede traer muchos beneficios para diversos sectores; sin embargo, el modelo no es 100 % confiable. Toda información generada por la aplicación debe ser evaluada, verificada, ajustada y validada por un ser humano.” concluyó Ueric Melo.