Tecnología
ChatGPT lanzó nuevo modelo con el que se puede conversar; así se configura para que reciba órdenes
La herramienta de inteligencia artificial dio un paso adelante y permitirá escoger el tono y el tipo de voz que esta pueda utilizar.
OpenAI ha comenzado a lanzar el modo de voz avanzado para los usuarios de ChatGPT Plus y Team, que posibilita una conversación más natural con la Inteligencia Artificial (IA) mediante la muestra de “emociones y señales no verbales”.
La compañía dirigida por Sam Altman presentó en mayo de este año su modelo GPT-4o, diseñado para ofrecer una interacción entre la persona y la máquina “más natural”, al disponer de la capacidad de comprender una combinación de entradas de texto, audio e imagen y generar respuestas en la misma medida con gran velocidad.
Asimismo, tal y como explicó la tecnológica en ese momento, este modelo incluye un ‘Modo voz’ avanzado, con el que permite elegir entre una serie de voces para personalizar la interacción con el ‘chatbot’.
Sin embargo, aunque el ‘Modo voz’ avanzado iba a probarse con un grupo de usuarios en julio, OpenAI anunció el retraso de esta función para asegurarse de que cumplen los “altos estándares de seguridad y fiabilidad”. Más tarde, en durante el mes de julio, la tecnológica anunció el despliegue de una versión alfa de este modo de voz avanzado para un grupo reducido de suscriptores de ChatGPT Plus.
Ahora, OpenAI ha anunciado que ha comenzado a lanzar el modo de voz avanzado de ChatGPT para los usuarios suscritos a la versión Plus y Teams, que ya podrán comenzar a conversar con la IA de OpenAI de forma más natural en tiempo real.
Así lo ha detallado la tecnológica en una publicación en la red social X (antigua Twitter), donde ha compartido que, con el lanzamiento, se han incluido novedades como instrucciones personalizadas, memoria de conversaciones y cinco voces nuevas con acentos mejorados.
En concreto, las nuevas voces integradas son las denominadas como Arbor, Maple, Sol, Spruce y Vale, que se suman a las ya existentes Breeze, Juniper, Cove y Ember. Se ha de tener en cuenta que una de las voces que falta en el modo de voz avanzado es la de Sky, que fue utilizada por OpenAI como demostración de esta función, y acabó generando polémica por parecerse a la voz de la actriz Scarlett Johansson, quien ya puso voz a un asistente de IA en la película Her, de 2013.
Por otra parte, en cuanto a las instrucciones personalizadas, OpenAI ha indicado que permiten configurar cómo debe responder ChatGPT ante las interacciones de los usuarios. Por ejemplo, se puede solicitar que responda con un tono tranquilo o que se refiera al usuario por su nombre.
La compañía también ha señalado que han mejorado la velocidad y la fluidez de la conversación. Asimismo, también han añadido memoria para que el ‘chatbot’ recuerde las conversaciones anteriores para poder consultarlas.
A pesar de que esta característica de modo de voz avanzado está disponible en más de 50 idiomas, OpenAI ha especificado que, por el momento, no está disponible para usuarios en la Unión Europea, así como tampoco se ha desplegado en Reino Unido, Suiza, Islandia, Noruega y Liechtenstein.