La inteligencia artificial tiene al mundo a la expectativa por el uso que se le pueda dar y por las consecuencias que pueda traer sobre la humanidad; de hecho, diferentes líderes involucrados en el desarrollo de esta tecnología han pedido controles extremos para evitar que sea utilizada con fines maliciosos que pongan en riesgo la seguridad del planeta.
Mientras se contemplan estas posibilidades, el crimen organizado está aprovechando las diferentes herramientas de inteligencia artificial para producir videos falsos con el fin de extorsionar a internautas bajo la modalidad de la sextorsión, acosar a menores de edad u obligar a las víctimas a cumplir con peticiones a cambio de no involucrarlos con estos clips.
Según un artículo publicado por ARS Technica, el Buró Federal de Investigaciones FBI ha advertido el incremento en el uso de plataformas de inteligencia artificial para crear videos en los que se ven a personas participando en prácticas sexuales y con los cuales buscan presionarlos para que paguen altas sumas de dinero.
“El FBI continúa recibiendo informes de víctimas, incluidos menores y adultos que no lo consintieron, cuyas fotos o videos fueron alterados en contenido explícito. (...) Después, se difunden públicamente los materiales en las redes sociales o sitios web pornográficos con el propósito de acosar a las víctimas o como parte de esquemas de extorsión sexual”, señala el informe revelado por ese medio.
Los agentes del FBI también revelaron que desde 2023 el número de víctimas por estos casos de extorsión sexual se ha incrementado, debido al material creado a partir de imágenes compartidas por los propios afectados en sus redes sociales o por capturas hechas a chats o videollamadas.
Según el FBI, los delincuentes exigen “un pago (por ejemplo dinero, tarjetas regalo) con la amenaza de compartir las imágenes o videos con miembros de la familia o amigos en las redes sociales si no se recibían los fondos o el envío por parte de la víctima de imágenes o videos reales de temática sexual”.
“Los avances en la tecnología de creación de contenidos y las imágenes personales accesibles online ofrecen nuevas oportunidades a los agresores para encontrar y atacar a las víctimas. Esto les hace vulnerables a la vergüenza, el acoso, la extorsión, la pérdida financiera o la revictimización continua a largo plazo”, asegura el FBI en su informe.
Creador de ChatGPT vuelve a lanzar desesperada petición sobre la inteligencia artificial
Precisamente ha sido Sam Altman, CEO de OpenAI, empresa responsable detrás del éxito de ChatGPT, el que ha lanzado una nueva advertencia al mundo durante su más reciente visita a Emiratos Árabes Unidos.
Desde allí, el alto ejecutivo reiteró el riesgo que supone para la humanidad la inteligencia artificial y se atrevió a sugerir una figura similar como la Agencia Internacional de Energía Atómica de la ONU para poder controlar y vigilar esta nueva tecnología que mantiene en vilo al planeta.
“El desafío que tiene el mundo es cómo vamos a manejar esos riesgos y asegurarnos de que aún podamos disfrutar de esos tremendos beneficios (...). Nadie quiere destruir el mundo”, indicó el ejecutivo.
Altman se refirió a este organismo de control nuclear creado por la Organización de las Naciones Unidas y lo puso como un ejemplo de lo que hicieron los diferentes gobiernos del mundo para controlar un peligro inminente como la energía nuclear luego de que Estados Unidos atacara a Japón con dos bombas nucleares al final de la Segunda Guerra Mundial.
“Asegurémonos de unirnos como un globo terráqueo y espero que este lugar pueda desempeñar un papel real en esto (...). Hablamos del Oiea como un modelo en el que el mundo ha dicho OK, la tecnología es muy peligrosa, pongamos todos algunas barandillas. Y creo que podemos hacer ambas cosas”, recalcó Altman, dejando sobre la mesa, una vez más, su preocupación por lo que pueda llegar a pasar en el mundo si la inteligencia artificial se sale de control.
“Creo que, en este caso, es un mensaje matizado porque dice que no es tan peligroso hoy, pero puede volverse peligroso rápidamente. Pero podemos enhebrar esa aguja”, agregó Altman.