Tecnología
Países occidentales consideran “urgente” actuar ante irrupción de la IA
El mundo se ha visto sorprendido estos últimos meses por las capacidades de esta tecnología, que no deja de evolucionar.
La Unión Europea (UE) y Estados Unidos anunciaron el miércoles un borrador de “código de conducta” común para la inteligencia artificial (IA), que se aplicaría de manera voluntaria por las empresas del sector, frente al riesgo de que China tome la iniciativa de regular un ámbito en pleno auge.
De los responsables políticos a los creadores de tecnología, emerge un consenso mundial sobre la necesidad de regular una tecnología con efectos revolucionarios, pero que también conlleva muchos riesgos.
Tras una reunión de alto nivel en Suecia, el jefe de la diplomacia de Estados Unidos, Antony Blinken, afirmó que los países occidentales ven que es “urgente” actuar ante la irrupción de esta tecnología, con herramientas como el robot conversacional ChatGPT.
El código anunciado el miércoles estaría abierto “a todos los países de ideas afines”, dijo en una rueda de prensa, junto a responsables de la UE.
Según la comisaria europea de la Competencia, Margrethe Vestager, conocida por sus pulsos con los gigantes de la tecnología, aseguró que se presentará un “borrador” de este código “en las próximas semanas”.
“Creemos que es realmente importante que los ciudadanos puedan ver que las democracias actúan”, dijo Vestager, junto a Blinken.
La idea es tener “muy, muy pronto” una propuesta final, a la que se puedan sumar “un círculo lo más amplio posible”, añadió, citando a Canadá, Reino Unido, Japón e India.
Estados Unidos y los países europeos temen que los criterios chinos se impongan, si Occidente no se presenta unido.
La UE prepara un marco jurídico completo e imperativo que se aplicaría en materia de IA en unos años --como muy pronto a finales de 2025-- pero el código de conducta pensado con Washington será de aplicación voluntaria, precisó Mme Vestager.
“Tormentas peligrosas”
La UE quiere ser la primera en disponer de este marco jurídico para evitar las derivas de la IA, pero su entrada en vigor puede llevar años.
China también tiene proyectos de regulación, en especial una “inspección de seguridad” de las herramientas de la IA.
El presidente chino, Xi Jinping, y otros altos responsables del país se pusieron de acuerdo sobre la necesidad de controlar más esta tecnología, según informó el miércoles la prensa estatal, para “mejorar la vigilancia de los datos de las redes y la inteligencia artificial”.
“Tenemos que prepararnos para enfrentarnos a los peores escenarios posibles y estar preparados para resistir a los vientos violentos, las aguas turbias e incluso a las tormentas peligrosas”, declararon los responsables tras una reunión entre los dirigentes del Partido Comunista Chino, según la agencia oficial Xinhua.
El mundo se ha visto sorprendido estos últimos meses por las capacidades de esta tecnología, que no deja de evolucionar. El sector está dominado por gigantes estadounidenses como Microsoft --principal accionista de OpenAI, la firma que opera ChatGPT--, Meta o Google.
Pero el sector avanza muy rápidamente, sobre todo con plataformas de código abierto capaces de liderar a nivel tecnológico.
A modo de ejemplo de los progresos de esta tecnología, la primera ministra danesa, Mette Frederiksen, pronunció este miércoles un discurso escrito parcialmente por ChatGPT para resaltar el aspecto revolucionario pero también peligroso de esta herramienta.
“Aunque no siempre dio en el clavo sobre los detalles del programa de trabajo del gobierno o sobre puntuación (...) las capacidades (de ChatGPT) son a la vez fascinantes y aterradoras”, dijo.
Revelan la fecha en la que ChatGPT podría superar a los humanos
Los creadores de esta inteligencia artificial, OpenAI, publicaron un artículo en el que indica cuándo este chatbot va a superar a la raza humana y será más lista que las personas.
En este mismo sentido, la misma empresa OpenAI determinó que en solo cuestión de 10 años ChatGPT será capaz de diagnosticar enfermedades, incluso, de manera más precisa que los humanos. Además de ello, el artículo señala que también podrá crear documentos y escritos capaces de ser best seller, superando a muchos autores biológicos.
Asimismo, en dicho contenido revelado y firmado por tres de los fundadores de OpenAI, incluyendo a su director ejecutivo, Sam Altman, aseguran que sentir temor por el desarrollo y la evolución de la inteligencia artificial no era algo malo, sino necesario para lo que se viene en el sentido de los límites que hay que ponerle.
Dicho lo anterior, desde la dirección de la compañía de desarrollo tecnológico, subrayan que es importante legislar y crear la normativa necesaria para las leyes frente a la inteligencia artificial, pero no solo se trata de crear una legislatura alrededor de ella, sino también abordar temas éticos.
Cabe recordar que Altman, antes de este escrito, había mostrado su preocupación porque su sistema ChatGPT pueda causar “un daño significativo al mundo” y considera que un mal uso de esta tecnología, a falta de una normativa sólida que lo regule, podría tener consecuencias catastróficas.