Tecnología
¿Cuáles son los datos que ChatGPT guarda de las personas?
Varios países coinciden con que el modelo de OpenAI, lanzado en marzo, trae “grandes riesgos para la humanidad”.
ChatGPT, modelo de lenguaje desarrollado por OpenAI, se encarga de procesar las consultas en tiempo real y generar respuestas basadas en su conocimiento general adquirido durante su entrenamiento en una amplia gama de textos en línea.
Cabe destacar que, como modelo de lenguaje, ChatGPT se entrena en una amplia variedad de textos disponibles en internet, y su conocimiento está basado en esta información.
Estos son los datos que ChatGPT recopila de sus usuarios
Para nadie es un secreto que al momento de utilizar servicios de mensajería, correo electrónico y procesadores de texto, entre otros, se suelen ingresar ciertos datos que los sistemas solicitan, los cuales se asumen que están protegidos. Generalmente, los usuarios piensan que estos solo pueden ser vistos por las personas hacia los que van dirigidos.
En el caso de ChatGPT, específicamente, las cosas son diferentes, ya que este es un sistema de carácter experimental que ha sido lanzado al público cuando todavía se encuentra en pleno desarrollo, motivo por el cual no es la plataforma indicada para compartir información confidencial o datos muy personales. Precisamente, uno de los elementos clave para mejorarlo son las conversaciones.
Tendencias
Así lo indica el mismo OpenAI en un FAQ en su página web: “Como parte de nuestro compromiso con una IA segura y responsable, revisamos las conversaciones para mejorar nuestros sistemas y garantizar que el contenido cumpla con nuestras políticas y requisitos de seguridad”.
Además, en ese mismo texto señala que incluso las conversaciones pueden revisadas por sus “entrenadores de IA” para mejorar sus sistemas. Esto significa que lo que se escribe el usuario en el cuadro de conversación de ChatGPT puede ser visto también por empleados de la compañía.
De igual manera, los expertos en tecnología del portal Genbeta, señalan que la política de privacidad lanza otros datos más sobre la recopilación de datos; y es que la compañía dirigida por Sam Altman advierte que al utilizar sus servicios puede recopilar la siguiente información personal:
- Nombres
- Datos de contacto
- Credenciales de la cuenta
- Información de pago
- Historial de transacciones
- Entrada y carga de archivos
- Protocolo de Internet
- Tipo y configuración del navegador
- Fecha y hora de las solicitudes
- Forma de interacción con las webs de OpenAI
- Sistema operativo
- Tipo de dispositivo
Así las cosas, también existe la posibilidad de que estos datos acaben en manos de terceros, puesto que hay varias razones por las que esto podría suceder, según lo que dice la misma compañía.
Por ejemplo; vendedores y proveedores de servicios: la empresa dice que puede proporcionar información personal a estos actores externos para ayudar a satisfacer sus necesidades comerciales.
Requisitos legales: OpenAI dice que los datos también pueden ser transferidos en casos en los que deban cumplir con obligaciones legales.
Afiliados: la compañía indica que pueden compartir información personal con una entidad que controla, es controlada o está bajo control común de OpenAI.
Transferencias comerciales: en el caso de que OpenAI sea vendida y adquirida por otra compañía, se reorganice, se presente en quiebra u otros escenarios similares, los datos pueden ser transferidos.
Por esta y más razones, países como Italia expresó su decisión de bloquear el robot conversacional ChatGPT, acusado de no respetar la legislación sobre los datos personales y de no disponer de un sistema para verificar la edad de los usuarios menores de edad.
Esta decisión, “con efecto inmediato”, tendrá como consecuencia “la limitación provisional del tratamiento de los datos de los usuarios italianos con respecto a OpenAI”, creador de ChatGPT, indicó en un comunicado la autoridad nacional de protección de datos personales.
Una pausa a la inteligencia artificial
Elon Musk y cientos de expertos mundiales firmaron un llamado a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado en marzo, al advertir de “grandes riesgos para la humanidad”.
En la petición publicada en el sitio futureoflife.org, piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.
La firman personalidades que han expresado sus temores sobre una IA incontrolable que supere a los humanos, como Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Hariri.
El director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”.