Tecnología
Creadores de ChatGPT trabajan en una herramienta para atajar los peligros de su inteligencia artificial
El chatbot ha ganado gran popularidad por las respuestas que ofrece ante las dudas de los usuarios.
OpenAI está trabajando en una herramienta propia que detecte si un texto ha sido redactado por una persona o por un modelo de generación de texto como ChatGPT, aunque por el momento no destaca por su precisión.
La herramienta “tiene como objetivo ayudar a mitigar las afirmaciones falsas de que el texto generado por IA fue escrito por un humano”, ha explicado la compañía en un comunicado enviado a TechCrunch y recogido por Europa Press.
Este lanzamiento sigue a la preocupación que ha generado ChatGPT desde su aparición en noviembre, por ser muy eficaz a la hora de generar textos coherentes y con una alta capacidad de redacción, lo que ha hecho saltar las alarmas especialmente en ámbitos educativos y académicos.
La herramienta de OpenAI, no obstante, no es todavía precisa, ya que ronda una tasa de éxito del 26 %. “Todavía tiene una serie de limitaciones, por lo que debe usarse como complemento de otros métodos para determinar la fuente del texto en lugar de ser la herramienta principal para la toma de decisiones”, apuntan.
Qué es ChatGPT
Esta plataforma surge como una versión optimizada del modelo de inteligencia artificial denominado GPT-3, el cual fue desarrollado por OpenAI y que se ha posicionado como uno de los más avanzados en la actualidad.
Esta IA hace parte de los sistemas llamados Large Language Models (grandes modelos de lenguaje) que están basados en una tecnología de aprendizaje automático, que les dota de la capacidad leer, resumir, traducir textos. Además, pueden desarrollar la habilidad de predecir palabras futuras en una frase, lo que les brinda una fluidez para producir textos con una estructura similar a la que usan los seres humanos al hablar o escribir.
La fortaleza de este sistema es que está basada en el análisis de grandes cantidades de textos que están publicados en millones de páginas web, incluyendo foros, portales de noticias, web académicas, entre otros.
El gran éxito que ha tenido esta plataforma radica en que, el programa desarrollado por la empresa Open y que lanzado al mercado en noviembre de 2022, se alimenta de una gran cantidad de información que está en internet y por ello puede generar respuestas que hasta cierto punto están basadas en información verificable.
Sin embargo, algunos líderes del sector tecnológico e integrantes de la comunidad académica expuesto su preocupación ante la creciente popularidad del chatbot, que actualmente posee más de un millón de usuarios, y el uso equivocado que se le está dando a dicha plataforma. Esto debido a que podría tener un impacto negativo en diferentes escenarios.
En este momento la plataforma está siendo usada por estudiantes para generar ensayos y otros textos escolares con base al tema que solicite un usuario y ello puede facilitar la trampa, por lo tanto, la herramienta ha generado una alerta en torno a la calidad de a producción académica de los alumnos y al respeto por el derecho de autor.
Por otra parte, especialistas en sistemas de la información también advierten que ChatGPT representa un riesgo para el mercado laboral, puesto que algunos empresarios podrían ver en esa inteligencia artificial un recurso para disminuir costos al sustituir personal calificado por el chatbot.
¿Cómo funciona ChatGPT?
Basta con ingresar al sitio web oficial de la plataforma y realizar un registro con un correo electrónico y número de teléfono, posteriormente el usuario podrá abrir una conversación para interactuar con el chatbot.
Dentro de una conversación el usuario puede hacer todo tipo de consultas, incluso se le puede solicitar que explique de manera más sencilla el concepto de un texto complejo, que genere letras de canciones o que cuente un chiste e incluso es posible establecer un juego de adivinanzas sobre series de TV, canciones o videojuegos con base de emoticones.
¿Por qué ChatGPT representa un riesgo de desinformación?
Debido a que algunos usuarios estaban utilizando la herramienta para generar solicitudes de información sobre temas poco apropiados, la plataforma fue ajustada para limitar este tipo de interacciones y por ello no puede resolver asuntos de actualidad y sus conocimientos están limitados en una fecha específica.
Pese a que ChatGPT puede generar textos que parecen estar desarrollados por una entidad pensante, esta tecnología aún no razona y carece de la capacidad real para poder entender plenamente la profundidad del lenguaje humano. Expertos en informática señalan que es un sistema artificial entrenado para generar palabras con cierta coherencia gramatical con base en datos y patrones estadísticos.
En ese sentido, es una plataforma conversacional que no es veraz, pese a que puede sostener un diálogo con un ser humano, de hecho, algunos usuarios han encontrado que el chatbot a veces inventa hechos, personas, datos, y los mezcla en textos redactados con coherencia.
Gary Marcus, académico investigador del campo de la psicología y la inteligencia artificial, detectó imprecisiones en la información que una IA puede ofrecer, incluso señaló que en una ocasión un chatbot respondió a una pregunta usando una cita de un autor a quien presentó como si este hubiese muerto recientemente, cuando él aún está vivo.
Por otro lado, el doctor Ariel Guersenzvaig advierte que la IA de ChatGPT puede generar citas que son falsas y atribuir publicaciones a autores equivocados, pero debido a que sus respuestas respetan ciertas reglas gramaticales los usuarios pueden creer que es información precisa y real.
Guersenzvaig resalta la gran capacidad que esta plataforma tiene para construir textos bien articulados y coherentes, pero reitera que este tipo de tecnologías puede convertirse en un sistema para generar información falsa.