Una inteligencia artificial ya puede imitar la voz de las personas.
Dos inteligencias artificiales ya puede imitar la voz de las personas. | Foto: Getty Images/iStockphoto

Tecnología

Así puede clonar tres segundos de su voz con inteligencia artificial

Existen dos formas que los usuarios podrán implementar. Una se encuentra en fase desarrollo.

11 de febrero de 2023

La inteligencia artificial sigue avanzando a pasos agigantados, permitiendo a los usuarios realizar a diferentes actividades, como, por ejemplo, la traducción de textos o predecir palabras futuras.

No obstante, también está la posibilidad de clonar la voz con tan solo tres segundos. De acuerdo con el portal Computer Hoy, existen dos formas confiables para lograrlo. La primera es VALL-E, inteligencia artificial desarrollada por Microsoft. La otra opción es ElevenLabs.

En cuanto a VALL-E, esta permite imitar la voz de una persona, la cual incluye su emoción y entonación después de tres segundos de entrenamiento. Sin embargo, la IA se encuentra en fase de producción.

Inteligencia artificial.
Inteligencia artificial. | Foto: Getty Images

VALL-E está compuesta de la tecnología de startup de OpenAI, compañía creadora de ChatGPT. Asimismo, se pretende implementar su motor de Bing y conjunto de aplicaciones de Office.

Por su parte, ElevenLabs ya puede ser utilizada por los usuarios, motivo por el cual se deben llegar a cabo los siguientes pasos:

  • Registrarse en la página web oficial, pulsando en ‘Sing Up’.
  • Hacer clic en el apartado ‘Voice Lab’ y luego en ‘Voice Cloning’.
  • Pulsar en ‘Add Instant Voice’ y grabar lo que considere necesario.
  • La plataforma permite grabar un minuto de audio.
  • Para colocar un nombre al archivo, el usuario puede pulsar el apartado ‘Name’.
  • Presionar la herramienta ‘Edit’ y posteriormente escribir el texto que se quiere reproducir.
Inteligencia artificial.
La inteligencia artificial crece a pasos agigantados. | Foto: Getty Images

Es importante mencionar que este sistema está optimizado para el idioma inglés, es decir que el sistema puede reconocer la voz a medias.

Cinco formas como cibercriminales usan la inteligencia artificial para robarlo

Debido al gran número de funciones que tiene la inteligencia artificial, varios ciberdelincuentes se aprovechan para robar o estafar a los usuarios.

Ataques de phishing

Los delincuentes pueden utilizar el chatbot como una herramienta para generar correos maliciosos que sean mucho más persuasivos, debido a que la inteligencia artificial tiene la capacidad de generar un texto con pocos errores de ortografía y una mejor coherencia que los emails maliciosos que suelen recibir las personas.

Esta situación haría que los correos falsos que suplantan marcas reconocidas sean más creíbles al estar redactados de mejor manera. De manera que los usuarios tendrían que ser mucho más precavidos al momento de revisar correos que parezcan sospechosos, por ello, es clave no ingresar a los enlaces que acompañen esas comunicaciones, ni descargar los archivos adjuntos que tengan.

Robo de identidad

Al igual que con los correos maliciosos, los ciberdelincuentes pueden usar la inteligencia artificial para crear engaños con los que se intenta suplantar la identidad de marcas reconocidas (bancos, plataformas de streaming, almacenes, servicios online). De esta manera, los delincuentes intentan robar información personal de las víctimas para acceder a sus cuentas.

Crear código malicioso

Esta plataforma puede empleada para el desarrollo de software, ya que se puede usar como una herramienta para generar de código en diversos lenguajes de programación. Pese a que ChatGPT realiza una advierte sobre los riesgos de ese tipo de solicitudes y señala se podría estar violando normas éticas, junto a la política del servicio, algunos usuarios han logrado obtener ese código junto a una explicación detallada sobre cómo funciona.

Getty Creativo
Los ciberdelincuentes se aprovechan de la inteligencia artificial. | Foto: Getty Images/iStockphoto

Chats maliciosos

ChatGPT cuenta con una API que permite alimentar a otros chats, gracias a ello esa tecnología puede ser utilizada en otras plataformas de mensajería, como WhatsApp, pero también puede ser utilizada con propósitos maliciosos. Por ejemplo, generar chats para estafar a las personas empleando información más creíble.

Automatizar procesos en ciberataques

Antes de proceder con un ataque, los cibercriminales suelen ejecutar un proceso de reconocimiento que incorpora varias tareas repetitivas. Sin embargo, ChatGPT podría ocuparse de esas actividades, lo cual facilitaría el diseño y la implementación de un ataque informático contra una entidad.