ChatGPT es una de las aplicaciones que más auge ha tenido desde su lanzamiento. Este tipo de inteligencia artificial,entrenada para mantener conversaciones, redactar textos, encontrar respuestas, entre otras actividades no solo ha generado polémica por su uso sino también hasta dónde puede llegar generando odios y amores.

Por eso, la Comisión Federal de Comercio estadounidense investiga a la compañía dueña de la aplicación para saber si perjudica a los consumidores al generar información falsa y si su tecnología hace un uso inadecuado de los datos de los usuarios.

¿De quiénes hablamos? Descubre a aquellos individuos considerados como las más brillantes mentes del mundo, según la inteligencia artificial. | Foto: Jaap Arriens/NurPhoto

OpenAI, respaldada por Microsoft, fue notificada de la pesquisa en un cuestionario de 20 páginas, en el que se le pide a la empresa que describa incidentes en los que usuarios fueron falsamente difamados y que comparta los esfuerzos de la compañía para garantizar que no vuelvan a suceder.

El diario The Washington Post reportó la investigación del ente regulador estadounidense.

El lanzamiento de ChatGPT por parte de OpenAI en noviembre pasado sorprendió al mundo al mostrar el poder de los grandes modelos de lenguaje (o LLM, por sus siglas en inglés), una forma de inteligencia artificial (IA) conocida como “IA generativa” que puede producir en segundos contenido similar al creado por el ser humano.

Producción potencialmente difamatoria

En medio del revuelo por las capacidades de la tecnología, las autoridades recibieron informes de que estos modelos también podrían generar contenido ofensivo, falso o simplemente extraño, llamado a veces “alucinaciones”.

La presidenta de la Comisión de Comercio, Lina Khan, se dirigió a una audiencia del comité del Congreso el miércoles y, aunque no mencionó la investigación, dijo a los legisladores que su agencia tenía preocupaciones sobre la producción potencialmente difamatoria de ChatGPT.

La Comisión Federal de Comercio estadounidense investiga a la compañía dueña de la aplicación ante posibles usos que podrían generar contenido ofensivo, falso o simplemente extraño, llamado a veces "alucinaciones". Foto: Getty Images | Foto: Getty Images

“Hemos escuchado sobre reportes en los que la información sensible de la gente aparece en respuesta a una pregunta de otra persona”, señaló Khan.

“Hemos oído hablar de calumnias, declaraciones difamatorias, cosas totalmente falsas que están surgiendo. Ese es el tipo de fraude y engaño que nos preocupa”, añadió.

La investigación de la autoridad reguladora se centra en cómo este aspecto podría perjudicar a los usuarios, según el cuestionario, pero también profundiza en el uso de datos privados por parte de OpenAI para construir su modelo, líder en el mundo.

El GPT-4 de la compañía es la tecnología base detrás de ChatGPT, así como decenas de otros programas de empresas que pagan una cuota a OpenAI para acceder a su modelo para sus propios usos.

“No genera confianza”, la respuesta del director general de OpenAI a la investigación

En un tuit, el director general de OpenAI, Sam Altman, lamentó que la noticia acerca de la investigación fuera filtrada a los medios, lo cual “no genera confianza”.

Agregó que “por supuesto” OpenAI cooperará con la Comisión Federal de Comercio y aseguró que es “muy importante para nosotros que nuestra tecnología sea segura y favorable al consumidor, y estamos confiados de cumplir la ley”.

Una investigación de la Comisión de Comercio no implica necesariamente otras acciones y esa entidad podrá cerrar el caso si está satisfecha con la respuesta de la empresa examinada.

ChatGPT reveló cuáles son las personas más inteligentes del mundo. | Foto: Ilustración creada con la IA de Bing Image Creator

Si el regulador percibe prácticas ilegales o inseguras, exigirá medidas correctivas y posiblemente iniciará una demanda.

OpenAI y la Comisión de Comercio no respondieron a una solicitud de comentarios.

Este jueves 6 de julio se conoció una estrategia de OpenAI, ya que la creadora de ChatGPT está juntando un nuevo equipo de investigadores dedicado a desarrollar tecnologías que ayuden a controlar los sistemas de inteligencia artificial (IA) que superan las capacidades humanas.

Cabe recordar que esta compañía es la responsable del modelo de lenguaje GPT y el ‘chatbot’ ChatGPT y por ende espera atajar el problema del control de la IA en los próximos cuatro años, para lo que está preparando un equipo dedicado a ello.

*Con información de AFP