Tecnología
Google permitirá generar, depurar y explicar código en el ‘chatbot’ Bard
Los usuarios podrán pedir que Bard genere código, lo depure o desarrolle explicaciones sobre cómo funciona un código concreto.
Google ha actualizado su ‘chatbot’ Bard, impulsado por Inteligencia Artificial (IA), introduciendo la capacidad de ayudar a los usuarios con las tareas de programación y desarrollo de ‘software’, con funciones para generar, depurar y explicar código.
El ‘chatbot’ desarrollado por Google, que está basado en la tecnología de conversación Languaje Model for Dialogue Applicactions (LaMDA), fue presentado en febrero con la intención de potenciar la experiencia de búsqueda y ofrecer “respuestas actuales y de alta calidad”, así como colaborar con IA generativa.
Ahora, el gigante tecnológico ha anunciado una nueva actualización de Bard con la que ofrece ayuda a los usuarios para llevar a cabo tareas de programación y desarrollo de ‘software’, con el objetivo de que todo el mundo pueda programar, “tengan el nivel de experiencia que tengan”.
En este sentido, tal y como ha explicado Google en su blog, los usuarios podrán pedir que Bard genere código, lo depure o desarrolle explicaciones sobre cómo funciona un código concreto. Igualmente, también ha indicado que se lanzará está capacidad con más de 20 lenguajes de programación, incluyendo algunos de los más populares como C++, Java, Javascript, Python y Typescript.
Otra de las características que destaca el Google es que Bard permite exportar el código que se haya escrito con Python de forma sencilla, ya que permite utilizar Google Colab, para exportarlo “sin necesidad de copiar y pegar”. Además, esta función de Bard también ha sido introducida en las funciones de escritura para Hojas de cálculo de Google.
En cuanto a la capacidad para explicar código, Google ha indicado que se trata de una función enfocada a aquellos usuarios que están aprendiendo programación por primera vez, así como para ayudarles a entender “lo que podría generar un bloque de código”.
Por otra parte, Bard también realiza un proceso de depuración de código para identificar si este tiene algún error. En este caso, Bard da un mensaje de error y se le puede solicitar que lo soluciones. También puede ayudar al usuario a hacer que un código existente sea más rápido y eficiente.
A pesar de todo ello y que, por ello, a veces puede proporcionar información “inexacta, engañosa o falsa”. En este sentido, advierte de que el ‘chatbot’ puede cometer errores como proporcionar un código funcional que no produzca el resultado correcto o que esté incompleto y, por tanto, recomienda comprobar “cuidadosamente” el código antes de “confiar en él”.
Google lanzó su ‘chatbot’ Bard, empleados dicen que este es un “mentiroso patológico”
Empleados de Google afirman que el ‘chatbot’ Bard es un “mentiroso patológico” y señalan que a pesar de la información de “baja calidad” que ofrece y de la falta de ética de la Inteligencia Artificial (IA) que esto implica, Google lanzó Bard igualmente para competir contra sus rivales en el sector, ChatGPT de OpenAI y Microsoft con Bing.
El gigante tecnológico presentó Bard, su ‘chatbot’ -basado en la tecnología de conversación Languaje Model for Dialogue Applications (LaMDA)- a principios de febrero. Inicialmente, esta IA se puso a disposición de los probadores de confianza de Google y sus empleados, posteriormente, se amplió el acceso a los Pixel Superfans.
Sin embargo, una serie de trabajadores actuales de la empresa y exempleados han asegurado que la información que utiliza Bard es de “baja calidad” y han denunciado la falta de prioridad que da la compañía a la ética de la IA, según ha publicado Bloomberg.
*Con información de Europa Press.