La aplicación ChatGPT para iOS ha incorporado la nueva función ‘Examinar con Bing’ en su última actualización, que permite a los usuarios suscriptores de ChatGPT Plus usar la navegación de Bing para obtener “respuestas completas y conocimientos actuales” con información que va “más allá” de los datos que dispone el modelo.
OpenAI, la desarrolladora del ‘chatbot’ de Inteligencia Artificial (IA) ChatGPT, lanzó la aplicación nativa y gratuita de este servicio para dispositivos con sistema operativo iOS en el mes de mayo. Asimismo, junto con la ‘app’ gratuita, también se puso a disposición una opción de suscripción a ChatGPT Plus, que da acceso exclusivo a las capacidades de GPT-4 y otras funcionalidades por 22,99 euros al mes.
Ahora, en su última actualización 1.2023.173, la aplicación para iOS ha incorporado las capacidades del buscador de Microsoft Bing en una nueva función ‘Examinar con Bing’, que está disponible para todos los usuarios que dispongan de la versión de suscripción ChatGPT Plus.
Tal y como explica la compañía a través del historial de actualizaciones dentro de la App Store, con esta nueva función de navegación los usuarios podrán obtener “respuestas completas y conocimientos actuales sobre eventos e información”. Es decir, las respuestas del ‘chatbot’ ya no solo incluirán información con los datos de entrenamiento originales del modelo, sino que estarán ampliadas con todas las capacidades del buscador Bing.
Para habilitar ‘Examinar con Bing’, los usuarios deberán hacerlo desde la sección ‘Nuevas funciones’ en el menú de configuración dentro de la aplicación. Tras ello, seleccionar GPT-4 en el selector de modelos y, por último, escoger ‘Examinar con Bing’.
Por otra parte, en esta última actualización OpenAI también ha incluido mejoras en el historial de búsqueda. Ahora, con solo tocar un resultado de búsqueda ChatGPT trasladará al usuario al punto respectivo de la conversación.
Llamado urgente a expertos para dar solución a sesgos y estereotipos negativos de la IA
Los modelos generativos de IA, ChatGPT, Google’s Bard y Midjourney están codificando prejuicios y estereotipos negativos en sus usuarios, además de generar y difundir masivamente información aparentemente precisa, pero sin sentido, alerta un estudio publicado en la revista Science. Los autores alertan de que los grupos marginados se ven afectados de forma desproporcionada y los niños corren un riesgo especial.
Además, recuerdan que la fabricación masiva tiene el potencial de influir en las creencias humanas a medida que los modelos que la impulsan se hacen cada vez más comunes, poblando internet. No solo la gente obtiene información de la red, sino que gran parte del material de entrenamiento primario utilizado por los modelos de IA también procede de ahí. En otras palabras, se desarrolla un bucle de retroalimentación continua en el que los prejuicios y los sinsentidos se repiten y aceptan una y otra vez.
El artículo, del que es coautor Abeba Birhane, profesor adjunto de la Facultad de Informática y Estadística de Trinity (Irlanda), que trabaja con el Complex Software Lab de Trinity y Senior Fellow in Trustworthy AI en la Fundación Mozilla, invita a la reflexión y hace un llamamiento a psicólogos y expertos en aprendizaje automático para que colaboren sin demora en la evaluación de la magnitud del problema y la búsqueda de soluciones.
Según comenta el profesor Birhane, “las personas comunican habitualmente su incertidumbre mediante frases como ‘creo’, retrasos en las respuestas, correcciones y difluencias en el habla. En cambio, los modelos generativos dan respuestas seguras y fluidas, sin representaciones de la incertidumbre ni capacidad para comunicar su ausencia”.
“Como resultado, esto puede causar una mayor distorsión en comparación con las entradas humanas y llevar a la gente a aceptar las respuestas como objetivamente exactas”, prosigue. “Estos problemas se ven exacerbados por los intereses financieros y de responsabilidad civil que incentivan a las empresas a antropomorfizar los modelos generativos como si fueran inteligentes, sensibles, empáticos o incluso infantiles”.
Uno de los ejemplos que ofrece la Perspectiva se centra en cómo las regularidades estadísticas de un modelo asignaban a los acusados negros puntuaciones de mayor riesgo. Los jueces de los tribunales, que aprendieron los patrones, pueden entonces cambiar sus prácticas de imposición de penas para ajustarse a las predicciones de los algoritmos.
Este mecanismo básico de aprendizaje estadístico podría llevar a un juez a creer que las personas de raza negra tienen más probabilidades de reincidir, incluso aunque se impida el uso del sistema mediante normativas como las adoptadas recientemente en California.
Especialmente preocupante es el hecho de que no es fácil deshacerse de los prejuicios o de la información inventada una vez que ha sido aceptada por un individuo. Advierte de que los niños corren un riesgo especialmente alto, ya que son más vulnerables a la distorsión de las creencias al ser más propensos a antropomorfizar la tecnología y ser más fácilmente influenciables.
“Lo que se necesita es un análisis rápido y detallado que mida el impacto de los modelos generativos en las creencias y prejuicios humanos”, añade.
*Con información de Europa Press