Tecnología
RadioGPT, la primera emisora que tiene locutores y contenidos a partir de la inteligencia artificial
La inteligencia artificial sigue creciendo a pasos agigantados en el mundo de la tecnología.
La compañía Futuri en las últimas horas dio a conocer que lanzó RadioGPT, la primera emisora del mundo que cuenta con locutores impulsados por la inteligencia artificial (IA).
Esta nueva estación se caracteriza por tener un sistema que genera audio para transmisión y que de acuerdo con el portal Enter, se basa en lo que está pasando en tiempo real en un área específica.
Esta nueva emisora cuenta con tecnología GPT-3, el cual cuenta con un sistema de contenido social, así como el descubrimiento de historias dirigidas por la IA. Este nuevo sistema que también cuenta con tecnología TopicPulse se encargará de rastrear información, donde destacarán lo que está en tendencia en las redes sociales.
Asimismo, tendrán la capacidad de crear un guion y una vez listo, las voces de la inteligencia artificial lo convertirán en audio. También tienen la posibilidad de crear blogs, publicaciones sociales y otros contenidos para plataformas digitales, los cuales estarán relacionadas con el contenido que esté al aire.
Lo más leído
El sistema TopicPulse también podrá crear videos cortos, impulsados por la IA sobre temas que sea relevantes para la sociedad. “Como pioneros de la inteligencia artificial en el espacio de la transmisión, es natural que llevemos el increíble poder de la tecnología GPT-3, junto con tecnología innovadora como TopicPulse, a la radio”, indicó la compañía a través de un comunicado.
Por otra parte, manifestaron que ahora están desarrollando una inteligencia artificial para la televisión, además de la creación de chatbots, con el propósito de que los espectadores y oyentes se puedan comunicar.
“Los chatbots con tecnología GPT pueden proporcionar respuestas en tiempo real a consultas, proporcionar actualizaciones sobre eventos actuales o incluso entablar una pequeña conversación con el oyente o el espectador”, agregaron.
ChatGPT: esta es la manera en la que el chatbot se integrará a más ‘apps’
Días atrás Open AI anunció que ya está disponible la interfaz de programación de aplicaciones (API) para ChatGPT y Whisper, con la que los desarrolladores podrán integrar el chatbot y su tecnología de conversión de voz a texto impulsados por Inteligencia Artificial (IA) en sus aplicaciones y servicios.
Cabe recordar que el chatbot ChatGPT es una herramienta de IA conversacional capaz de chatear con los usuarios, responder a sus preguntas y en formato de texto desarrollado. Esta herramienta ha sorprendido a los usuarios, debido a la naturaleza de sus respuestas y a su capacidad para generar y enlazar ideas.
Ahora bien, la compañía anunció en un comunicado en su página web la llegada de la API para los desarrolladores, que tendrán acceso a la nueva familia de modelos llamada gpt-3.5-turbo.
En este sentido, Open AI define gpt-3.5-turbo como “el mejor modelo para muchos casos que no son de chat”, con lo que hace referencia a que la API de ChatGPT se podrá usar para más funciones, además de para crear una interfaz conversacional impulsada por IA.
Asimismo, tal y como especifica Open AI, gpt-3.5-turbo tiene un precio de 0,002 dólares por 1.000 tokens. Se trata de un precio diez veces más barato que sus modelos GPT-3.5 existentes. Este descenso se basa en “una serie de optimizaciones en todo el sistema” con las que han logrado una reducción de costes del 90 por ciento.
Los tokens se utilizan para pagar el uso de la red neuronal de OpenAI, según explica la compañía. Se pueden considerar como “piezas de palabras”; antes de que la API procese las solicitudes, las divide en tokens para medir cuánto se está utilizando en palabras.
Por ejemplo, un token equivale a cuatro caracteres en inglés. No obstante, la empresa también proporciona la herramienta ‘Tokenizer’ para verificar cuántos tokens se necesitarán para interpretar una cadena de texto.
Dicho esto, la API de ChatGPT también ofrece instancias dedicadas para los desarrolladores. En concreto, la API de Open AI se ejecuta en Azure y, con las instancias dedicadas, los desarrolladores pagarán por un periodo de tiempo en una asignación de infraestructura informática reservada para atender sus solicitudes.