En medio del boom y auge que hay alrededor de la tecnología y el desarrollo de la inteligencia artificial, Meta ha presentado LIMA, un modelo de lenguaje grande, con el que demuestran que se pueden obtener respuestas de alta calidad a partir de un conjunto pequeño de indicaciones con entrenamiento previo

Ahora bien, LIMA (Less Is More for Alignment, por sus siglas en inglés) se basa en LLaMa, significa exactamente Large Language Model Meta AI, lo que traducido al español sería algo como Gran modelo de lenguaje Meta AI, un modelo con 65.000 millones de parámetros que la compañía tecnológica facilitó con fines investigadores en el primero trimestre del año.

Meta desarrolla su propia inteligencia artificial. | Foto: Reuters

En ese mismo sentido, Meta explica que los grandes modelos de lenguaje habitualmente se entrenan en dos fases: una formación previa no supervisada de texto sin procesar, para que aprenda representaciones generales, y otra a gran escala de aprendizaje, mediante ajuste y refuerzo, con la que se busca que la IA se alinee mejor con las tareas finales y las preferencias del usuario.

Con LIMA, Meta pretende demostrar que es posible obtener resultados de calidad a partir de unas pocas indicaciones, con un modelo que ha sido ampliamente entrenado con anterioridad. Y para ello, ha utilizado mil ejemplos de instrucciones reales cuidadosamente curadas, 750 procedentes de foros como Stack Exchange y wikiHow, y otras 250 redactados por los propios investigadores.

Para analizar su rendimiento, lo han comparado con GPT-4 de OpenAI, Claude de Anthropic y Bard de Google con un test controlado de 300 indicaciones. Los resultados que obtuvieron muestran que LIMA produce respuestas “iguales o preferibles” en el 43 %, el 46 %, y 58 %, de los casos, respectivamente.

La inteligencia artificial está potenciando otras tecnologías. | Foto: © 2023 SOPA Images

Como recogen en el estudio publicado en arxiv.org, en una escala absoluta, las respuestas de LIMA “revelan que el 88 % cumple con los requisitos inmediatos, y el 50 % se considera excelente”, apuntan los investigadores.

Tatequieto a ChatGPT: Google y la Unión Europea crearán normas para contener los peligros de la inteligencia artificial

La Unión Europea (UE) y Google, buscan definir normas voluntarias sobre Inteligencia Artificial (AI) antes de la entrada en vigor de una legislación específica, afirmó este miércoles 24 de mayo, el comisario europeo de Industria, Thierry Breton.

“Acordamos que no podemos darnos el lujo de esperar a que la ley de AI entre en vigor, y trabajar junto con todos los desarrolladores para introducir un pacto voluntario”, dijo Breton a AFP después de conversar con el director general de Google, Sundar Pichai.

La Comisión Europea, brazo ejecutivo de la UE, propuso una legislación sobre IA en 2021, aunque desde entonces el tema se tornó una materia urgente.

Se aproxima una regulación para poner límite a ChatGPT. | Foto: Jonathan Raa/NurPhoto

El Parlamento Europeo deberá respaldar el proyecto de ley el próximo mes, abriendo de esa forma una fase de difíciles negociaciones con los 27 estados miembros de la UE para definir una versión final.

Breton dijo que incluso si la UE adoptara esa legislación a finales de este año, comenzaría a aplicarse “como muy pronto a finales de 2025″. El texto del Parlamento Europeo incluye la prohibición de sistemas de AI de vigilancia biométrica, reconocimiento de emociones y vigilancia predictiva.

También busca colocar los sistemas de AI generativa —como ChatGPT y Midjourney— en una categoría que requiere medidas especiales de transparencia.

La vicepresidenta de la Comisión Europea, Margrethe Vestager, dijo el martes que funcionarios de Estados Unidos y la UE discutirán el tema en la reunión del Consejo de Comercio y Tecnología (TTC) bilateral, que se reunirá la semana próxima en Suecia.

*Con información de AFP y Europa Press.