Pese a los grandes beneficios que ha traído consigo los avances tecnológicos, también ha despertado preocupaciones sobre la privacidad de los usuarios en el uso de ciertas aplicaciones o redes sociales que pueden colocar en riesgo la información personal y sensible de las personas.
En el caso de Meta AI, la inteligencia artificial de la empresa de Mark Zuckerberg, que está disponible en WhatsApp, Instagram y Facebook, ha sido diseñada para ofrecer personalización y eficiencia, pero con algunos interrogantes sobre el uso de datos personales cuando los usuarios interactúan con esta herramienta.
Aunque la compañía asegura que la información es utilizada para mejorar la experiencia, los expertos advierten sobre los riesgos implícitos de compartir ciertos tipos de datos.
Cuando los usuarios comparten información a través de WhatsApp con Meta AI, ya sea a través de mensajes directos o consultas específicas, se genera una recopilación de datos que puede incluir desde preferencias personales hasta información más sensible. Por ejemplo, se sabe que la IA utiliza el análisis de mensajes para personalizar respuestas, lo que podría implicar el acceso a conversaciones privadas.
Aunque WhatsApp asegura que los mensajes están cifrados de extremo a extremo, las interacciones con funciones impulsadas por IA podrían no estar completamente protegidas bajo esta premisa. Esto ocurre porque los datos compartidos con Meta AI pueden ser almacenados temporalmente para procesarlos y generar respuestas más precisas. En teoría, estos datos podrían incluir detalles personales como ubicaciones, nombres o incluso transacciones realizadas a través de la plataforma.
Esta recopilación, aunque justificada bajo términos de servicio, plantea preguntas sobre el control que tienen los usuarios sobre su propia información y los límites en los que una empresa puede operar con esos datos.
Por otra parte, los riesgos de seguridad también son significativos. La centralización de datos en una plataforma como Meta aumenta el atractivo para los ciberdelincuentes, que siempre están al acecho. Un ataque exitoso podría exponer información sensible a terceros, lo que incluye datos personales y patrones de uso que podrían ser utilizados para fines malintencionados, como estafas o suplantación de identidad.
Un informe de 2023 de la consultora en ciberseguridad Check Point señaló que la creciente integración de IA en aplicaciones de mensajería incrementa las posibilidades de filtraciones masivas, especialmente si las empresas no implementan protocolos robustos de protección de datos.
Aunque WhatsApp y Meta han reforzado sus medidas de seguridad, los riesgos persisten. Por ejemplo, en el caso de la telemedicina, esta aplicación no es buena para compartir datos médicos, ya que estos chatbots no están diseñados para dar recomendaciones verificadas ni diagnósticos oficiales como lo haría el personal de la salud.