Tecnología

Inteligencia artificial más allá de ChatGPT: esta tecnología ayuda a las personas con pérdida auditiva

Esta tecnología avanzada mejora el acceso al habla en 360 grados, destacando sus características específicas sobre el ruido.

11 de junio de 2023
ChatGPT Open AI
ChatGPT es un chatbot apoyado en inteligencia artificial de la compañía Open AI. | Foto: SOPA Images/LightRocket via Gett

La inteligencia artificial (IA) va más allá de ChatGPT, pudiendo ser una herramienta de utilidad en el bienestar de las personas y para facilitar la interacción con los demás y el entorno, como ocurre en el caso de las personas con pérdida auditiva.

ChatGPT, ChatSonic o DALL-E son las herramientas que abanderan la popularidad de la IA generativa y que muestran su capacidad de construir textos, imágenes y razonamientos precisos.

Inteligencia artificial (IA) / ChatGPT / Empresas e IA
Chatbot Chat with AI, Artificial Intelligence. man using technology smart robot AI, artificial intelligence by enter command prompt for generates something, Futuristic technology transformation. | Foto: Getty Images/iStockphoto

Aunque es una tecnología en desarrollo y tiene pendiente una adaptación normativa, ya ha demostrado el potencial que tiene en la sociedad, mayoritariamente desde el ámbito profesional y económico.

En este contexto, los expertos de Oticon ponen en valor la utilidad de la red neuronal profunda y otros sistemas de inteligencia artificial para mejorar la vida cotidiana de las personas con pérdida auditiva.

En concreto, han destacado el uso de la IA para subtitular conversaciones en tiempo real, ya que constituye un apoyo para entenderse mejor en conversaciones en ambientes ruidosos o en un tono bajo.

Esta es una de las adaptaciones de la tecnología de texto a voz “que más años lleva en práctica”, señalan, y su uso se ha democratizado, pudiendo encontrarla en aplicaciones de teléfonos móviles.

La IA también protege el oído ante audios con volumen excesivo. Actualmente hay fabricantes de dispositivos de audio, como los auriculares, que han desarrollado tecnologías de IA que monitorizan el volumen y son capaces de alertar al usuario de niveles poco óptimos para su salud auditiva, o incluso de ajustarlo automáticamente para reducir el riesgo de que su uso prolongado genere efectos irreversibles en su audición.

Inteligencia artificial (IA) / ChatGPT / Empresas e IA
Chatbot Chat with AI, Artificial Intelligence. man using technology smart robot AI, artificial intelligence by enter command prompt for generates something, Futuristic technology transformation. | Foto: Getty Images/iStockphoto

Asimismo, y como indican desde Oticon, la IA apoya al cerebro en el proceso de audición. En esta línea, el fabricante ha trabajado en un concepto de audífono que asiste al cerebro a través de una red neuronal profunda entrenada con millones de escenas sonoras.

Como explica, esta tecnología avanzada mejora el acceso al habla en 360 grados, destacando sus características específicas sobre el ruido.

Alerta por el peligro que puede generar ChatGPT: sería imposible de detectar

Desde su llegada, ChatGPT se ha convertido en la aplicación de inteligencia artificial más popular del planeta, ya que permite resolver la gran mayoría de dudas de cualquier usuario.

Este chatbot también permite asesorar en diferentes temas de poco conocimiento y entregar guías para realizar algunas tareas que se tengan en su momento. Asimismo, permite la traducción de textos enteros en gran calidad.

No obstante, como se ha mencionado en más de una ocasión, esta inteligencia artificial puede llegar a caer en malas manos. En ese orden de ideas, el portal Andro4All indica que se ha descubierto que ChatGPT puede generar un malware mutante que resulta muy difícil de detectar.

La razón de por qué se hace complicado su búsqueda, se debe al protocolo conocido como “Endpoint detection and response” (EDR, por sus siglas en inglés). Esta técnica ha demostrado ser incapaz de encontrar cualquier peligro que pueda crear el chatbot, debido a que su código puede mutar.

Como es bien sabido, la mayoría de modelos de lenguaje han sido diseñados con filtros para no ser malvados; no obstante, en algunos casos se pueden sobrepasar estos límites para que los ciberdelincuentes generen virus que afecten a los demás usuarios.

Por ejemplo, el mencionado portal asegura que ChatGPT es muy vulnerable a los métodos que utilizan los hackers para la creación de códigos para generar los malwares. En ese sentido, esto puede representar un riesgo para la seguridad de todo internet, debido a que puede haber una gran vulneración de los datos.

No obstante, se espera que Open AI, compañía encargada del desarrollo de ChatGPT, presente una solución al problema, ya que varios expertos aseguran que se podría volver una práctica en otros chatbots que cuentan con inteligencia artificial.

Inteligencia artificial de ChatGPT explica el origen de los sismos en Colombia
Inteligencia artificial de ChatGPT tiene riesgos y ventajas. | Foto: Ilustración generada por IA Bing Image Creator

Cabe mencionar que Sam Altman, CEO de OpenAI, días atrás ha lanzado una nueva advertencia al mundo sobre el ChatGPT. El alto ejecutivo reiteró el riesgo que supone para la humanidad la inteligencia artificial y se atrevió a sugerir una figura similar, como la Agencia Internacional de Energía Atómica de la ONU, para controlar y vigilar esta nueva tecnología que mantiene en vilo al planeta.

“El desafío que tiene el mundo es cómo vamos a manejar esos riesgos y asegurarnos de que aún podamos disfrutar de esos tremendos beneficios. (…) Nadie quiere destruir el mundo”, indicó el ejecutivo.

Altman se refirió a este organismo de control nuclear creado por la Organización de las Naciones Unidas y lo puso como un ejemplo de lo que hicieron los diferentes gobiernos del mundo para controlar un peligro inminente como la energía nuclear luego de que Estados Unidos atacara a Japón con dos bombas nucleares al final de la Segunda Guerra Mundial.

“Asegurémonos de unirnos como un globo terráqueo, y espero que este lugar pueda desempeñar un papel real en esto. (…) Hablamos del Oiea como un modelo en el que el mundo ha dicho ‘OK, tecnología es muy peligrosa, pongamos todos algunas barandillas’. Y creo que podemos hacer ambas cosas”, recalcó Altman, dejando sobre la mesa, una vez más, su preocupación por lo que pueda llegar a pasar en el mundo si la inteligencia artificial se sale de control.

“Creo que, en este caso, es un mensaje matizado porque dice que no es tan peligroso hoy, pero puede volverse peligroso rápidamente. Pero podemos enhebrar esa aguja”, agregó Altman.

*Con información de Europa Press.