Un reciente estudio elaborado por expertos en ciberseguridad ha señalado que hackers pueden entrenar una inteligencia artificial (IA) para que adquiera la capacidad de robar las contraseñas de una persona, mediante la captura y análisis del sonido que generan las teclas cuando el usuario escribe la clave en el teclado de su PC.
Según el informe, esa IA es capaz de detectar el sonido de cada tecla con una precisión del 93 %, además, puede capturar los ruidos que produce el teclado durante una videoconferencia en Zoom.
El equipo que expertos que descubrió esta ciberamenaza lanzó una alerta ante el enorme peligro que representa esa inteligencia artificial, la cual puede aprovechar los micrófonos presentes en smartphones, tablets y computadores portátiles para robar claves de acceso de prácticamente cualquier persona y sin que las víctimas lo descubran.
¿Cómo descubrieron esa peligrosa IA?
Un grupo de especialistas de la Universidad de Surrey, Universidad de Durham la Universidad Royal Holloway de Londres, desarrollaron un experimento en donde presionaban en repetidas ocasiones y de forma aleatoria cada una de las teclas que posee un MacBook Pro, mientras tanto los sonidos del teclado eran grabados a través de una videollamada en Zoom con un teléfono inteligente.
Posteriormente, usaron un sistema de aprendizaje automático para que analizara los ruidos de la grabación e intentara reconocer las características acústicas asociadas a cada tecla. Después de varias sesiones de entrenamiento con los datos grabados, la IA fue puesta a prueba y para sorpresa de los responsables del estudio logró un nivel de precisión cercano al 95 %.
Pese a que esta no es la primera vez que se intenta emplear un sistema digital para analizar los sonidos que producen las pulsaciones de un teclado, esta nueva plataforma se destaca por tener un elevado nivel de precisión. Por lo tanto, representa una amenaza tangible para cualquier persona en el mundo.
Ehsan Toreini, coautor del estudio, publicado en el IEEE European Symposium on Security and Privacy Workshops, de la Universidad de Surrey, declaró para The Guardian que esas herramientas representan el surgimiento de nuevas amenazas que operan a través de cualquier dispositivo inteligente equipado con micrófono que este al interior de un hogar.
De igual manera, los autores del estudio señalan que por ahora no han empleado su IA para descifrar contraseñas en situaciones reales. No obstante, destacan que es importante informar al público sobre este tipo de peligros y ampliar el debate sobe la regulación de la inteligencia artificial y así poner IA, impedir implementación de potentes herramientas que pueden beneficiar a los criminales.
¿Qué hacer para impedir que una IA adivine las contraseñas?
Expertos en ciberseguridad sugieren utilizar otras alternativas al uso de contraseñas, como los sistemas biométricos (reconocimiento facial y huella dactilar), o acudir a la opción de autenticación en dos pasos.
También se recomienda generar contraseñas que incluyan letras en mayúsculas y minúsculas, junto a símbolos especiales y números. De esta manera se podría despistar a la IA en caso de que tenga la oportunidad de analizar los sonidos que emite el teclado de un usuario.
Agregado a ello, se recomienda mantener silenciados los micrófonos del PC, especialmente cuando se sostiene una videollamada vía Zoom, de esta manera los criminales tendrán más dificultades para poder realizar una grabación con los sonidos de las pulsaciones de teclado que realiza la víctima.
Por otra parte, Gabriel Croci, director de Seguridad de la Información de TCS, señala que los criminales están refinando sus ataques informáticos con IA para así robar bases de datos de grandes compañías y luego usar esa información para ejecutar estafas con técnicas de robos de identidad o extorsión.
A medida que las inteligencias artificiales se hacen más complejas, los hackers pueden aprovechar ciertos puntos débiles para robar datos confidenciales, interrumpir operaciones o ejecutar otro tipo de actividades maliciosas.