China aspira a convertirse en líder mundial de la inteligencia artificial en 2030, lo que supone revolucionar numerosos sectores, como la industria del automóvil y la medicina.

Baidu fue la primera empresa de su país en anunciar que estaba trabajando en un equivalente chino de ChatGPT.

Su llamado Ernie Bot, presentado a la prensa el mes pasado, funciona en mandarín, está dirigido exclusivamente al mercado chino y de momento solo está disponible en versión beta.

El gigante del comercio online Alibaba presentó el martes su propio robot, llamado Tongyi Qianwen.

El principal reto para los desarrolladores chinos en la carrera por la inteligencia artificial es idear un robot conversacional que funcione bien, pero que no se salga del estricto marco de los contenidos permitidos.

China vigila estrechamente internet y sus medios de comunicación. Los censores eliminan cada día contenidos que critican la política estatal o que puedan crear malestar.

Imagen de un mundo hipotético en donde las máquinas controlan la Tierra. | Foto: Ilustración generada por IA Bing Image Creator

Las redes sociales también están sometidas a un control estricto.

China, en la vanguardia de la regulación de nuevas tecnologías, ya pidió el año pasado a los gigantes de internet que revelaran sus algoritmos, el cerebro de muchas aplicaciones y servicios en internet y que suelen ser un secreto bien guardado.

China quiere regular la inteligencia artificial

China llevará a cabo una “evaluación de seguridad” de las herramientas de inteligencia artificial (IA), en medio del intento de los gigantes chinos de internet de diseñar instrumentos similares a ChatGPT.

China está muy atenta al desarrollo del robot conversacional estadounidense ChatGPT, lanzado en noviembre y capaz de formular respuestas detalladas en segundos a todo tipo de preguntas.

El sistema no está disponible en el país, pero ChatGPT es objeto de innumerables artículos y debates en las redes sociales, al tiempo que los gigantes tecnológicos chinos compiten por diseñar herramientas equivalentes.

ChaosGPT es una IA creada para demostrar que estos sistemas pueden ser peligrosos para la humanidad. | Foto: Getty Images / William Whitehurst

Baidu, conocido por su motor de búsqueda, fue uno de los primeros grupos chinos en posicionarse en la IA seguido por Tencent (internet y videojuegos) y Alibaba (comercio electrónico).

China quiere regular la llamada inteligencia artificial generativa, en pleno auge, y antes de ponerse a la venta, los productos que utilicen esta tecnología tendrán que “someterse a una inspección de seguridad”, según un proyecto de reglamento publicado el martes por la Administración del Ciberespacio de China.

La entidad reguladora, que somete su texto a los comentarios del público antes de aprobarlo, no especifica cuándo entrará en vigor la normativa.

Los contenidos generados por la inteligencia artificial deben ”reflejar los valores socialistas fundamentales y no incluir contenido relacionado con la subversión del poder del Estado”, dice el proyecto de reglamento.

Su objetivo es garantizar “el desarrollo sano y la aplicación estándar de la tecnología de inteligencia artificial generativa”, según el organismo.

Elon Musk y cientos de expertos piden pausa en la inteligencia artificial

Elon Musk y cientos de expertos mundiales firmaron el miércoles 29 de marzo un llamado a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado este mes, al advertir de “grandes riesgos para la humanidad”.

En la petición publicada en el sitio futureoflife.org, piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

La firman personalidades que han expresado sus temores sobre una IA incontrolable que supere a los humanos, como Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Hariri.

El director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”.

La IA ChatGPT sigue dando de qué hablar en el universo tecnológico. | Foto: Getty Images

“La empresa necesita tiempo para adaptarse”, declaró recientemente a ABCNews.

“En los últimos meses, hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, afirman.

“¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”, concluyeron.

Entre los firmantes figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

*Con información de AFP