Google anunció recientemente que las indicaciones de Live View de Maps en espacios interiores, (que ayudarán a los usuarios a guiarse por centros comerciales y aeropuertos), y la ampliación a más países de las nuevas funciones de la búsqueda múltiple, que se extenderá a la búsqueda local y permitirá buscar cualquier imagen que aparezca en los resultados del Buscador en el móvil, dicha herramienta estará disponible en Madrid y Barcelona, España.
Hay que decir que la forma de buscar un contenido en Internet ha evolucionado con el tiempo, con el empleo de innovaciones como la inteligencia artificial y el reconocimiento visual y el recurso de herramientas complementarias como la cámara.
Estas tecnologías ayudan a potenciar los motores de búsqueda como el de Google, con la finalidad de hacer más sencillas las consultas, en un servicio que entienda el lenguaje natural para ofrecer los resultados más relevantes.
En esta evolución, Lens se ha convertido en una herramienta destacada para las búsquedas con solo apuntar con la cámara o interpretar imágenes. Según los últimos datos compartidos por la compañía, los usuarios de Google ya utilizan Lens más de 10.000 millones de veces cada mes.
En este contexto, Google anunció que en los próximos meses estará disponible ‘Buscar lo que aparece en tu pantalla’, una función con la que el usuario podrá buscar aquello que ve en la pantalla del teléfono móvil, ya sea de una fotografía o un vídeo de una página web o de aplicaciones, sin salir del sitio.
Lens también tiene un papel destacado en las búsquedas múltiples, donde texto e imagen se complementan. Próximamente, se extenderá a las búsquedas locales, actualmente solo está disponible en Estados Unidos, en inglés.
Esta función, anunciada durante la conferencia anual de desarrolladores Google IO de 2022, permite obtener resultados locales con solo escribir “cerca de mí” a partir de una imagen ‘online’, por ejemplo, de un plato de comida. Esto permitirá obtener información sobre restaurantes que lo sirvan, o ese estilo de cocina, en las proximidades.
También en los próximos meses estará disponible la búsqueda múltiple a escala global con cualquier imagen de los resultados del Buscador el móvil. Esto significa que al realizar una búsqueda en el motor de Google, si entre los resultados aparece una imagen que llame la atención del usuario, podrá usar Lens sobre ella.
La IA sigue mezclándose en el diario vivir
Por otro lado, y para facilitar la comunicación máquina - humano, los equipos detrás de los chatbots con inteligencia artificial se ocupan constantemente en que sus motores de procesamiento aprendan los dialectos y las formas de hablar y escribir de las personas, de esta manera la tecnología puede brindar con menores indicaciones respuestas más satisfactorias a todo tipo de solicitudes.
En los últimos años, los chatbots basados en lenguaje natural vienen revolucionando la atención al cliente, impulsados principalmente por el sector financiero y los retailers. Es así como en México, Cari, el chatbot especializado en procesamiento del lenguaje natural, se entrena constantemente para entender las formas de hablar de las diferentes regiones del país centroamericano, como Alexa o Siri.
Según datos Juniper Research se espera que la facturación asociada a los chatbots alcance los 112.000 millones de dólares en este 2023, sin embargo, un desafío importante en el desarrollo de estos sistemas es cómo manejar los regionalismos del idioma (expresiones que son comunes en una región específica, pero no necesariamente se utilizan en otras partes del mundo).
Por ejemplo, en dicho país, se usa la palabra ‘chamba’ para referirse al trabajo, mientras que en otras partes de América Latina se utiliza ‘trabajo’ o ‘empleo’. En el desarrollo de un chatbot, es importante tener en cuenta estas diferencias lingüísticas para asegurar que el sistema pueda entender y responder adecuadamente a los usuarios y que no se les pierda su “lana”.
*con información de Europa Press.