Tecnología
Google desarrolla una tecnología para manejar dispositivos con la piel: ¿cómo funciona?
Se trata de una tecnología capaz de captar las ondas mecánicas creadas a través de los gestos sobre la piel.
La compañía estadounidense Google trabaja en el desarrollo de una nueva tecnología que ofrecerá a los usuarios la capacidad de controlar dispositivos Pixel portátiles, como relojes inteligentes o auriculares, mediante el control táctil en la piel. Se trata de una tecnología denominada Sensor Fusion, capaz de captar las ondas mecánicas creadas a través de los gestos sobre la piel.
El portal Lets Go Digital tuvo acceso a unos documentos presentados a mediados de 2020 por Google LLC ante la Oficina Mundial de la Propiedad Intelectual (OMPI). Esta patente recibe el nombre de ‘Interfaz de piel para dispositivos portátiles: fusión de sensores para mejorar la calidad de la señal’ y fue aprobada y publicada el pasado 3 de marzo de 2022.
Una vez registrados por varios sensores, la tecnología combina estos datos de movimiento en un comando de entrada para el dispositivo Pixel portátil que se esté utilizando, como un smartwatch o unos auriculares inalámbricos. De ese modo, se puede subir o bajar el volumen de los auriculares únicamente deslizando el dedo desde la sien al pómulo o viceversa.
El mismo gesto podría servir para responder a las llamadas o reanudar la reproducción de un audio o una canción. Por el contrario, para manipular el reloj inteligente solo sería necesario tocarse la zona de la muñeca y deslizar de manera vertical, así como en el dorso de la mano o en el antebrazo, según la documentación de la patente.
Además de deslizamientos, esta tecnología sería capaz de registrar otros gestos de control cerca de los dispositivos, como un toque, corto o largo, con uno o varios dedos, así como la creación de áreas táctiles con forma de rectángulo, eclipse o círculo.
Con el objetivo de que los dispositivos puedan distinguir entre movimientos de control y otros que no lo son, que los usuarios realizan de forma involuntaria, se utiliza tecnología de aprendizaje automático. De esa manera, el usuario podrá asentir, caminar, acariciar o mover la cabeza sin que se los dispositivos lo detecten como un gesto de entrada y modifiquen su reproducción.
Dispositivos que interpretan el lenguaje no verbal
Google también se ha concentrado en trabajos que buscan potenciar las interacciones no verbales con los dispositivos inteligentes, para que estos sepan cuándo el usuario presta atención para iniciar una acción. Estos trabajos buscan “reimaginar” la interacción con los dispositivos, que hasta ahora se ha basado, además de en el control táctil, en la voz y en los gestos faciales.
En ese sentido, el equipo de Advanced Technology and Projects (ATAP) de la compañía estadounidense está utilizando el radar soli y la tecnología de aprendizaje automático para crear una nueva generación de dispositivos “socialmente inteligentes”. La nueva propuesta atiende al movimiento corporal para detectar si el usuario quiere o está listo para interactuar.
Para ello, los expertos de Google están enseñando a los dispositivos a aprender el contexto social. Y una forma de comprender que puede darse una interacción empieza por saber si el usuario, al acercase, superpone su espacio personal con el del dispositivo. Los matices del lenguaje corporal también tienen un papel destacado, por ejemplo, la orientación de la cabeza, para identificar el ángulo en el que la persona está prestando atención al dispositivo.
La finalidad de esta investigación también recoge no solo la interacción a partir del lenguaje no verbal, sino también la anticipación a dicha interacción, para que el dispositivo sepa “cuándo es el momento correcto” para iniciarla, o cuándo una persona simplemente pasa por delante.
“La experiencia puede ser bastante mágica, tener dispositivos con gracia social; que nos comprendan y se anticipen en nuestro día a día de una forma más considerada y encantadora”, indican en In the Lab with Google ATAP: Nonverbal Interactions with Soli Radar.
*Con información de Europa Press.