Tecnología
Directivos de Google hacen una preocupante revelación sobre el funcionamiento de su inteligencia artificial
Según la marca, su IA puede exhibir comportamientos similares a los humanos.
Directivos de Google han asegurado que su inteligencia artificial (IA) aún está en proceso de experimentación y que no conocen cómo esta es capaz de aprender idiomas, a raíz de un episodio en el que supo responder a una lengua para el que ‘Bard’ no estaba entrenado.
Cabe recordar que la compañía de tecnología presentó a principios de febrero a ‘Bard’, un ‘chatbot’ basado en la tecnología de conversación Lenguaje Model for Dialogue Applicationd (LaMDA) con el que esperaba potenciar la experiencia de búsqueda para ofrecer “respuestas actuales y de alta calidad”.
La compañía dio a conocer esta noticia a la par que Microsoft presentaba la nueva versión de su motor de búsqueda, Bing, y de su navegador, Edge, impulsados por IA sustentada por el chatbot ChatGPT.
Debido al éxito de este lanzamiento, Google está rediseñando por completo el funcionamiento de su motor de búsqueda, con el fin de lograr una experiencia de uso más personalizada. Este cambio está ahora en manos de un equipo multidisciplinar de la empresa, denominado Proyecto Magi.
Así, Google prepara actualmente el que será el nuevo buscador de Google, con el que espera mantenerse como el motor más utilizado de internet y en la mayoría de los smartphones, tras conocer que Samsung estaba considerando reemplazar Google por Bing como sistema predeterminado.
Ahora, directivos de la compañía han dado más detalles sobre ‘Bard’, una inteligencia artificial que “durante varios meses leyó casi todo internet y creó un modelo de cómo se ve el lenguaje”, según el vicepresidente sénior James Manyika.
Este, junto con la vicepresidenta de Google, Sissie Hsiao, han reconocido que lo primero que aprendieron fue “que ‘Bard’ no busca respuestas en internet como lo hace la búsqueda de Google” y que las respuestas de la IA proceden “de un programa autónomo que fue en su mayoría autodidacta”.
Manyika, por su parte, ha asegurado que ‘Bard’ no es “sensible” ni “consciente de sí mismo”, pero que sí puede exhibir comportamientos similares a los humanos, porque han aprendido de individuos “que tienen sentimientos, emociones, ideas, pensamientos y perspectivas”.
El CEO de Google, Sundar Pichai, por su parte, ha comentado que visualiza esta IA “como un experimento de forma limitada” y que aún presenta ciertos problemas que se deben resolver, como la capacidad de estos sistemas para aprender “por sí mismos habilidades que no se esperaban que tuvieran”, según se indica en esta entrevista, publicada por CBSN.
“Descubrimos que con muy pocas indicaciones en bengalí, la IA puede traducirlo todo”, ha dicho Manyika, que insiste en que ahora Google se esfuerza en investigar cómo ha sido esto posible y espera lograr que se haga con “mil idiomas”.
Mientras Pichai se ha referido a esto como ‘caja negra’, esto es, sucesos en IA que los desarrolladores no son capaces de explicar: “No entiendes completamente y no puedes decir por qué dice esto o por qué se equivoca”.
La revelación realizada por Google se produce en un momento en que varias voces que hacen parte de la industria de tecnología han expuesto sus preocupaciones en torno a los potenciales riesgos que acelerada evolución de las inteligencias artificiales están experimentando en los últimos meses. Dichos reparos están especialmente dirigidos a la IA de GPT-4, sistema que representa una potente evolución en las capacidades que actualmente ofrece el ‘chatbot’ de ChatGPT.
En ese sentido, los expertos consideran que es necesario que la humanidad haga una pausa en el proceso de desarrollo e implementación de nuevas capacidades que pueden ser otorgadas a las IA, para concentrarse en realizar investigaciones que ayuden a comprender desde diferentes enfoques todas las implicaciones que representa una mayor incorporación de tecnologías o servicios impulsados por una inteligencia artificial.
En ese sentido, algunas voces han solicitado que también se genere un debate que involucre a la sociedad civil, autoridades y gobiernos para poder fijar las normativas que deberán regular y garantizar un desarrollo seguro de tecnologías con IA que no repercutan en un eventual peligro para la raza humana.
*Con información de Europa Press.