Tecnología
OpenAI anuncia nuevos controles en las conversaciones con ChatGPT
El anuncio se hizo para que proteger los datos de los usuarios.
En la tarde de este miércoles 26 de abril se supo que OpenAI introdujo nuevos controles en la gestión de su ‘chatbot’ ChatGPT, para que los usuarios puedan optar por no utilizar las conversaciones que mantienen con él para entrenar los modelos de lenguaje.
En ese mismo sentido, la compañía de inteligencia artificial anuncio nuevos ajustes para proteger los datos de los usuarios que acceden a ChatGPT, así como una nueva suscripción para empresas con controles adicionales para su gestión.
Los usuarios de ChatGPT encontrarán desde un nuevo ajuste que permite desactivar el historial de conversaciones, de tal forma que las conversaciones que se inicien después de marcarlo ya no se utilizarán para entrenar los modelos de OpenIA.
Sin embargo, como matiza la compañía, se guardarán durante 30 días en caso de que sea necesario revisar dichas conversaciones en caso de abuso. Pasado ese plazo, se eliminarán, como explica en su blog oficial.
Lo más leído
La opción de Exportar, por su parte, permitirá obtener un archivo con las conversaciones mantenidas con el ‘chatbot’ para comprender mejor la información que ChatGPT almacena.
Y para los profesionales que necesitan controles adicionales para garantizar la seguridad de los datos de sus clientes, OpenAI ha anunciado una nueva suscripción, ChatGPT Business, que garantizará que por defecto no se usarán dichos datos para entrenar los modelos de lenguaje.
ChatGPT, ¿una amenaza para el planeta? Revelan la cantidad de agua que utiliza para enfriar sus bases de datos
Desde su lanzamiento, esta IA ha estado en el ojo del huracán por el tipo de respuestas que ha ofrecido y por la necesidad que despertó en sus desarrolladores para poder limitarla, ya que, como era de esperarse, muchas personas intentaron darle un uso inadecuado haciéndole preguntas sobre delitos o actividades criminales.
Mientras todo esto sigue en discusión y los desarrolladores –no solo de ChatGPT, sino de otras inteligencias artificiales– piden una pausa para saber hacia dónde se dirige esta industria, han aparecido nuevas preocupaciones sobre este chatbot.
Esta vez los cuestionamientos se centran sobre su huella en el medioambiente, algo que muchos de los usuarios no contemplan al creer que simplemente se trata de una aplicación o de un software cuyo impacto ambiental es nulo.
Pues bien, diferentes investigaciones han llamado la atención sobre el excesivo consumo de agua que OpenAI, creadora de ChatGPT, debe utilizar para enfriar los servidores donde se almacena toda la información de la que dispone el bot.
Según un grupo de investigadores de la Universidad de Colorado, Riverside y la Universidad de Texas Arlington, realizaron un informe en el que dejaron al descubierto la inmensa huella ambiental que está abriendo el famoso ChatGPT.
En el informe, titulado Making AI Less Thirsty, deja claro que no solo OpenAI necesita de una gran cantidad de electricidad, sino que requiere millones de litros de agua para mantener regulada la temperatura de sus centros de información.
En la investigación pudieron determinar que solo para el entrenamiento del GPT-3, Microsoft recurrió al uso de 185.000 galones de agua, lo mismo que se requiere para enfriar un reactor nuclear.
Al comparar estas cifras, los analistas indican que con esa cantidad de agua se pudieron producir 370 autos BMW o 320 autos Tesla; así mismo, hacen la comparación y señalan que si esta actividad se hubiese llevado a cabo en los centros de datos de Asia, que son mucho más grandes, esas cifras se hubiesen triplicado.
“ChatGPT necesita ‘beber’ [el equivalente a] una botella de agua de 500 ml para una conversación simple de aproximadamente 20-50 preguntas y respuestas. (...) Si bien una botella de agua de 500 ml puede no parecer demasiado, la huella hídrica total combinada para la inferencia sigue siendo extremadamente grande, considerando los miles de millones de usuarios de ChatGPT”, asegura el documento.
*Con información de Europa Press.