Meta ha incorporado nuevas funciones en versión beta para sus gafas inteligentes Ray-Ban, que permitirán el uso de Inteligencia Artificial (IA) en tiempo real gracias al soporte para entrada de vídeo. Entre las principales novedades, destacan las traducciones instantáneas de conversaciones y la compatibilidad oficial con Shazam.
La compañía, liderada por Mark Zuckerberg, presentó estas innovaciones en el marco del evento anual Meta Connect 2024. Durante su intervención, reveló mejoras en la experiencia de usuario con el asistente inteligente Meta AI, así como nuevas capacidades como la traducción en tiempo real y la integración con servicios adicionales, incluido Shazam.
Con el lanzamiento de la actualización de software v11, Meta ha asegurado que las gafas Ray-Ban Meta serán “más útiles, divertidas y capaces”, en parte, gracias a la introducción de funciones en versión beta, como la IA en tiempo real.
Según ha explicado Meta en un comunicado en su blog, la IA en tiempo real es posible gracias a la implementación de soporte de vídeo en el dispositivo, con lo que la IA puede analizar y comprender las imágenes que se están viendo en el momento.
De esta forma, durante una sesión de IA en tiempo real, el asistente Meta AI podrá ver lo que los usuarios están viendo de forma continua y, al comprender dichas imágenes, podrá mantener conversaciones con los usuarios de forma más cotidiana y natural. Esto se debe a que los usuarios podrán hacer preguntas o solicitudes haciendo referencia a lo que están viendo en el momento.
Por ejemplo, los usuarios podrán hacer preguntas sobre una receta que estén cocinando sin necesidad de decir ‘Hola, Meta’, así como hacer referencia a temas que se hayan tratado anteriormente con Meta AI o hacer preguntas de seguimiento de cualquier tema.
Meta también ha subrayado que “en el momento adecuado” y, según lo que esté viendo el usuario con las gafas, la IA en tiempo real podrá ofrecer sugerencias útiles para los usuarios “incluso antes de que las pregunten”.
Inteligencia artificial en tiempo real
Siguiendo esta línea, otra de las funciones que Meta ha puesto a disposición de los usuarios en versión beta es la traducción en tiempo real. Esta opción permite que las gafas Ray-Ban Meta traduzcan la conversación de forma instantánea entre personas que hablen inglés y español, francés o italiano.
En concreto, los usuarios escucharán traducido al inglés todo lo que se esté diciendo en la conversación de forma automática, a través de los altavoces de oído abierto del dispositivo. También se podrá ver la traducción en forma de transcripciones en el ‘smartphone’.
Con ello, la compañía pretende “derribar las barreras del idioma y acercar a las personas”. Así, se trata de una función útil en situaciones de, por ejemplo, viajes internacionales.
No obstante, por el momento, Meta ha lanzado las funciones de IA y traducción en tiempo real de forma exclusiva para los usuarios que forman parte de su Programa de Acceso Anticipado en Estados Unidos y Canadá. Asimismo, ha señalado que, al tratarse de funciones en versión beta, “es posible que no siempre funcionen correctamente”.
Además de todo ello, las gafas inteligentes de Meta ya disponen de compatibilidad con el servicio de reconocimiento de música Shazam. De esta forma, los usuarios pueden preguntar ‘Oye Meta ¿Qué canción es esta?’, para que las gafas comiencen a analizar la canción que esté sonando en el momento y puedan reconocer el artista y el nombre del tema.
Así, se trata de una herramienta que permite reconocer música con las manos libres y de forma sencilla, aunque por el momento solo se ha lanzado oficialmente para los usuarios de Estados Unidos y Canadá.
*Con información de Europa Press