Actualmente, una de las herramientas de Inteligencia Artificial que ha causado revuelo en el mundo es ChatGPT, diseñada por OpenAI, a la cual Microsoft decidió apostarle para poder integrarla a su buscador Bing.
Desde su lanzamiento, esta IA ha estado en el ojo del huracán por el tipo de respuestas que ha ofrecido y por la necesidad que despertó en sus desarrolladores para poder limitarla. Con respecto a esto, la compañía creadora anunció una nueva configuración que le permite al usuario deshabilitar su historial de ChatGPT con el objetivo de mejorar la privacidad de estos al hacer uso de la herramienta.
Esta nueva opción permite que, al desactivar el contenido compartido con ChatGPT, este no se usaría para mejorar el modelo, y esto significa que las conversaciones se retendrán durante 30 días y luego se eliminan del sistema de OpenAI.
Antes de crear esta opción de seguridad, la compañía en mención solamente permitirá evitar que los datos se compartiesen con el modelo, dándose de baja a través de un formulario vinculado en uno de los artículos de OpenAI sobre su política de privacidad. Pero ahora, con esta nueva opción, es mucho más fácil y accesible desactivar el uso compartido de datos.
“Cuando el historial de chat está deshabilitado, conservaremos las conversaciones nuevas durante 30 días y las revisaremos solo cuando sea necesario para controlar el abuso, antes de eliminarlas de forma permanente”, explica la compañía.
Paso a paso para desactivar el historial de ChatGPT
- En primer lugar, se debe iniciar sesión en la cuenta de ChatGPT.
- Luego, dar clic en los tres puntos junto en la dirección de correo electrónico cerca de la esquina inferior izquierda de la pantalla.
- Después, ir a “Configuración’ y ‘Control de Datos’, donde podrá desactivar la configuración ‘Historial de chat’
- Cabe mencionar que puede revertir esta decisión presionando el botón ‘Habilitar historial de chat’.
Cabe mencionar que esta opción que dio a conocer la compañía nace tras la prohibición temporal en Italia el mes pasado por posibles violaciones de privacidad.
¿De dónde sale la información que da ChatGPT?
Los modelos de inteligencia artificial (IA) y chatbots, como lo es ChatGPT, se entrenan con páginas web que incluyen información sesgada y en ocasiones racista, así como con contenido con derechos de autor, según ha concluido The Washington Post en una investigación reciente. Esta cabecera ha analizado varios conjuntos de datos que se utilizan para entrenar a la IA y, en concreto, ha estudiado el modelo Colossal Clean Crawled Corpus (C4) de Google, que acoge 15 millones de sitios web utilizados para “instruir a algunas IA de alto perfil”. Entre ellas, T5 de Google o LLaMA de Facebook.
En colaboración con investigadores del Allen Institute for AI, The Washington Post categorizó estas páginas web usando Similarweb y descubrió que no se podían clasificar alrededor de un tercio de ellas porque no aparecían en internet.
Una vez hecha la selección, clasificó los 10 millones de sitios web restantes en función de la cantidad de ‘tokens’, fragmentos de texto que se emplean para procesar información, que aparecieron de cada uno en este conjunto de datos. El medio reconoció que la mayoría de estas páginas web pertenecían a sectores como negocios, industrias, tecnología, noticias, arte, entretenimiento, creación de contenido, desarrollo de ‘software’, ciencia y salud. Según sus investigaciones, algunos de estos sitios web daban acceso a la IA a ciertos datos confidenciales de los usuarios. Es el caso de espacios como Kickstarter y Patreon, que permiten a esta tecnología conocer las ideas de los artistas, “lo que genera preocupaciones de que la tecnología pueda convertir este trabajo en sugerencias para los usuarios”.
Con ello, recordó la problemática existente con los derechos de autor de estas inteligencias y la demanda colectiva de un grupo de artistas interpuesta el pasado enero a tres compañías dedicadas al arte digital —Stability AI, DeviantArt y Midjourney— por infringir el ‘copywright’ en el desarrollo de obras artísticas con la herramienta Stable Difussion. Por otra parte, este periódico ha advertido que estos modelos de IA también se entrenan con ‘chatbots’ que comparten información sesgada que podría “conducir a la difusión de prejuicios, propaganda e información errónea sin que los usuarios puedan rastrearlos hasta al fuente original”.