Recientemente, expertos en ciberseguridad detectaron una vulnerabilidad la cual hizo posible que algunos usuarios de la plataforma ChatGPT pudieran acceder al historial de preguntas que otras personas le habían realizado a esa inteligencia artificial (IA).
Dicha falla de seguridad también permitió que la información personal de algunos usuarios que cuentan con una suscripción paga con el servicio de ChatGPT Plus fuera expuesta. Por lo tanto, datos como el nombre, apellido, dirección de correo, últimos cuatro dígitos de la tarjeta de crédito y fecha de expiración quedaron a la vista de otros cibernautas.
Según un reporte de Eset, empresa especializada en ciberseguridad, hace un par de días varios usuarios de Twitter y Reddit acudieron a esas plataformas digitales para reportar que en su historial de preguntas con ChatGPT estaban apareciendo consultas que eran efectuadas por otras personas y en algunos casos las consultas aparecían en otros idiomas.
De acuerdo con un comunicado que posteriormente emitió OpenAI, dicha situación causó que fuera necesaria la suspensión del servicio de ChatGPT por un tiempo hasta que se corrigiera la falla y luego el servicio fue restablecido.
Pero, además de la aparición de consultas realizadas por otras personas, algunos usuarios reportaron que ChatGPT también estaba mostrando en su página de pagos (para acceder a ChatGPT Plus) los correos electrónicos de otros usuarios.
De hecho, algunas personas compartieron en Twitter imágenes que mostraban cómo la página de pago de ChatGPT Plus indicaba haber enviado un SMS a un número desconocido y que, al enviar un correo, se mostraba una dirección de email también desconocida. Agregado a ello, el campo del formulario se autocompletaba con una dirección de correo electrónico que no pertenecía al usuario.
Aunque OpenAI logró solucionar el problema que se presentó con su chatbot, la compañía sí indicó que el fallo llegó a afectar a cerca de 1,2 % del total de suscriptores activos al servicio de ChatGPT Plus. Además, la marca precisó que a pesar de que en la información que fue expuesta se incluían los últimos cuatro dígitos de tarjetas de crédito, en ningún caso se revelaron los números completos de los plásticos de sus usuarios.
De igual manera, la empresa responsable del servicio de ChatGPT afirmó que se puso en contacto con las personas afectadas por la falla y aseguró que sus datos personales ya no se encuentran en peligro.
No obstante, vale la pena subrayar que expertos de Eset han advertido que están circulando varias modalidades de estafas que aprovechan la popularidad de ChatGPT.
Ejemplo de ello es falso plug-in para el navegador Google Chrome llamado “Quick access to Chat GPT”, el cual es usado por los cibercriminales para robar cuentas de Facebook, las cuales son empleadas para generar bots con la capacidad de desplegar publicidad maliciosa.
De igual manera, existe otra extensión maliciosa que aprovecha el nombre de ChatGPT para engañar a usuarios incautos, se trata de “ChatGPT for Google” servicio que esconde un virus con la capacidad de robar cuentas de las redes sociales de Meta.
Por otra parte, hay que subrayar que programas de inteligencia artificial como ChatGPT tienen también un “lado oscuro” a ojos de la Policía europea, Europol, que ha advertido que las redes criminales pueden aprovecharse de esa herramienta para mejorar sus tácticas delictivas.
La Europol también ha manifestado que las capacidades de ChatGPT podrían ser empleados para producir textos altamente creíbles y atractivos, para posteriormente utilizarlos en ciberestafas que se basan en tácticas de suplantación de personas o marcas (phising).
Agregado a ello, la entidad alertó que ChatGPT también cuenta con la capacidad de producir códigos de programación puede podrían ser empleados por ciberdelincuentes como un recurso para acceder sin esfuerzo a otros sistemas.