Tecnología

Italia se convierte en el primer país en bloquear a la Inteligencia Artificial ChatGPT, este es el motivo

En caso de no acatar las medidas, OpenAI podría ser multada con hasta 20 millones de euros.

31 de marzo de 2023
ChatGPT Open AI
ChatGPT es una inteligencia artificial desarrollada por OpenAI. | Foto: SOPA Images/LightRocket via Gett

Las autoridades italianas anunciaron este viernes, 31 de marzo, su decisión de bloquear el robot conversacional ChatGPT, acusado de no respetar la legislación sobre los datos personales y de no disponer de un sistema para verificar la edad de los usuarios menores de edad.

Esta decisión, “con efecto inmediato”, tendrá como consecuencia “la limitación provisional del tratamiento de los datos de los usuarios italianos con respecto a OpenAI”, creador de ChatGPT, indicó en un comunicado la autoridad nacional de protección de datos personales.

En su comunicado, la autoridad italiana subraya que ChatGPT “sufrió el 20 de marzo una pérdida de datos (data breach) sobre las conversaciones de los usuarios y las informaciones relativas al pago de los abonados al servicio de pago”.

El órgano de vigilancia reprocha también a ChatGPT “la falta de una nota informativa para los usuarios cuyos datos son recogidos por OpenAI, pero sobre todo la ausencia de una base jurídica que justifique la recogida y conservación en masa de los datos personales, con el fin de ‘entrenar los algoritmos que hacen funcionar la plataforma’”.

El logotipo de OpenAI se ve en la pantalla con el sitio web de ChatGPT en el móvil, el 8 de enero de 2023 en Bruselas, Bélgica. (Ilustración fotográfica de Jonathan Raa/NurPhoto a través de Getty Images)
La autoridad italiana indicó que ChatGPT “sufrió el 20 de marzo una pérdida de datos (data Breach)". | Foto: NurPhoto via Getty Images

Además, mientras que el robot está destinado a personas mayores de 13 años, “la autoridad hace hincapié en que la ausencia de cualquier filtro para verificar la edad de los usuarios expone a los menores a respuestas absolutamente no conformes con su nivel de desarrollo”.

La autoridad pide a OpenAI que “comunique en un plazo de 20 días las medidas adoptadas” para remediar esta situación, “so pena de una sanción de hasta 20 millones de euros (21,75 millones de dólares) o hasta 4 % del volumen de negocios mundial anual”.

Este anuncio se produce después de que la agencia de policía europea Europol advirtiera el lunes que delincuentes estaban dispuestos a aprovechar la inteligencia artificial como el robot conversacional ChatGPT para cometer fraudes y otros delitos cibernéticos.

El logotipo de OpenAI se ve en la pantalla con el sitio web de ChatGPT en el móvil, el 8 de enero de 2023 en Bruselas, Bélgica. (Ilustración fotográfica de Jonathan Raa/NurPhoto a través de Getty Images)
El manejo de datos y la ciberseguridad son algunos de los detalles por los que la autoridad italiana tomó la decisión frente a ChatGPT. | Foto: NurPhoto via Getty Images

Una pausa a la inteligencia artificial

Elon Musk y cientos de expertos mundiales firmaron el miércoles un llamado a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado en marzo, al advertir de “grandes riesgos para la humanidad”.

En la petición publicada en el sitio futureoflife.org, piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

La firman personalidades que han expresado sus temores sobre una IA incontrolable que supere a los humanos, como Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Hariri.

El director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”.

Elon Musk, dueño de Twitter.
Elon Musk manifestó su preocupación frente al frenético desarrollo que han tenido las inteligencias artificiales. | Foto: AFP or licensors

“La empresa necesita tiempo para adaptarse”, declaró recientemente a ABCNews.

“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, afirman.

“¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”, concluyeron.

Entre los firmantes figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

*Con información de AFP.