ChatGPT, Goggle Bard, IA
El chatbot trabaja en fortalecer sus protocolos de seguridad. | Foto: Getty Images

Tecnología

Pilas: estos son los cinco datos personales que nunca debe compartir con ChatGPT

Es responsabilidad del usuario tener precaución y no compartir datos personales sensibles.

10 de julio de 2023

La inteligencia artificial (IA) ha revolucionado la forma en la que el ser humano interactúa con la tecnología, y los chatbots basados en IA se han convertido en una herramienta popular para brindar respuestas y asistencia rápida como ChatGPT, desarrollado por OpenAI.

Este chatbot se encarga de responder una amplia gama de preguntas dentro de los límites de sus políticas de uso. Gracias a su capacidad para generar respuestas instantáneas, su popularidad y reconocimiento va en aumento cada día.

Sin embargo, a medida que los chatbots basados en IA evolucionan, estos se integran en diversas plataformas digitales, por lo cual, se deben tener en cuenta dos aspectos fundamentales, la seguridad y privacidad de datos. En este sentido, ChatGPT, se ha encargado de fortalecer sus protocolos de cifrado para proteger los datos transmitidos entre el usuario y el chatbot.

Inteligencia artificial (IA) / ChatGPT / Empresas e IA
ChatGPT esta diseñado con medidas de seguridad y privacidad. | Foto: Getty Images/iStockphoto

Aunque la herramienta fue diseñada para facilitar la vida los usuarios, los ciberdelincuentes siempre buscan cualquier oportunidad para aprovecharse de la vulnerabilidad de las plataformas en línea y por medio de estas, atacar a sus víctimas.

Siendo así, son muchas las tácticas que usan los delincuentes para el robo de información de los usuarios y así lograr su objetivo malicioso, algunas de estas son, suplantación de identidad, phishing y fugas de información, las cuales, básicamente, recopilan información sensible como contraseñas o datos bancarios, con el riesgo de que estos se filtren en distintas plataformas.

Además, los ataques de inyección de comandos, es otra de las modalidades usada por los criminales en donde se ejecutan comandos maliciosos en los sistemas subyacentes.

Inteligencia artificial (IA) / ChatGPT / Empresas e IA
La mayoría de usuarios usa ChatGPT para resolver inquietudes. | Foto: Getty Images/iStockphoto

Cabe recordar, que el pasado 20 de junio, ChatGPT sufrió un ataque cibernético, cuando más de 100.000 cuentas fueron infectadas por un malware que robó información conversacional de usuarios, para vender los datos en la Dark Web.

Frente a esto, los internautas deben tomar una serie de precauciones para evitar caer en manos de los ciberdelincuentes, pues existen una serie de riesgos potenciales que pueden afectar su seguridad personal.

Con el fin de minimizar los ataques cibernéticos, se recomienda que las personas se abstengan de compartir con ChatGPT ciertos datos personales.

Nombres de usuarios y contraseñas

Este tipo de datos son los más aclamados por los ciberdelincuentes para reutilizarlos en varios sitios con el fin de estafar y suplantar la identidad del usuario.

Datos financieros

Bajo ningún motivo es necesario compartir información sobre su situación financiera con ChatGPT, ya sea número de tarjetas de crédito, detalles de cuentas bancarias y demás.

Información sobre salud

Si necesita algún tipo de información respecto a su estado de salud, evite compartir datos relacionados con los síntomas específicos. Sea lo más prudente posible con el tipo de preguntas que le realiza al chatbot.

Hacker realizando un ciberataque.
Los ciberdelincuentes se aprovechan de las vulnerabilidades de los internautas para cometer actos maliciosos. | Foto: Ilustración generada por IA Bing Image Creator

Información privada

De acuerdo con el portal web Computer Hoy, datos como su nombre, la dirección residencial, fecha de nacimiento e incluso el número de seguro social, son datos sensibles que no se deben suministrar, ya que pueden caer en manos inescrupulosas.

Secretos de trabajo

Es importante que mantenga los datos confidenciales de su trabajo lo más secretos posible, pues este tipo de datos pueden ser usados por los criminales para afectar su integridad.

A pesar de las mejoras implementadas por OpenAI en compañía de otras organizaciones para fortalecer la seguridad y privacidad de los chatbots basados en IA, siempre se recomienda a los usuarios seguir prácticas en línea y evitar compartir datos personales sensibles.

Además, este tipo de información, no solo aplica para ChatGPT, sino también para todas las plataformas digitales por las cuales usted navega diariamente.

Aunque ChatGPT, está diseñado para brindar asistencia y responder preguntas, es responsabilidad del internauta tener precaución con los datos que difunde a través de la web.