Tecnología
Elon Musk insistió en la regulación de las IA en Vivatech 2023
El magnate también habló sobre la compra de la red social Twitter.
Elon Musk habló este viernes con el Chairman of the Supervisory Board of Publicis Groupe, Maurice Lévy, en el marco de Vivatech (París), a la que también se han unido la CEO de Orange, Christel Heydemann; Image & Environnement LVMH, Antoine Arnault; y la Chief Digital and Marketing Officer de L’Orèal, Asmita Dubey, sobre Neuralink, la empresa centrada en la integración de tecnología de inteligencia artificial en el cerebro humano, Musk ha compartido que planean tener el primer dispositivo de implante humano a finales de año.
Se dirigirá a personas con tetraplejia, que han perdido la conexión del cerebro con el cuerpo, para que puedan recuperar el movimiento.
Musk, que también apoyó la creación de OpenIA en sus inicios, ha destacado en la necesidad de regular las super inteligencias, insistiendo en la idea de que pueden tener “resultados catastróficos” para la civilización si la inteligencia artificial generativa no se crea con cuidado.
Así mismo, afirmó que es consciente de que la adquisición de Twitter ha sido una apuesta cara, pero confía en que los cambios que está haciendo, en su visión de proteger la libertad de expresión, acaben convenciendo a los usuarios más críticos.
Lo más leído
Lévy repasó su carrera, en la que hay fundación, cofundación y ayuda a la fundación de distintas empresas, como Tesla, PayPal, XpaceX, y OpenAI. Twitter, sin embargo, llegó a su currículo mediante la adquisición que cerró en octubre de 2022, por 44.000 millones de dólares (una cifra similar en euros).
“Si soy tan inteligente por qué pagué tanto por Twitter”, cuestiona a modo de broma. Antes de ser el dueño era un usuario, y de esta experiencia aprendió lo que, para él, estaba mal en la popular plataforma. Empezando por el tratamiento que hacían sus anteriores responsables de la libertad de expresión, un tema con el que siempre fue crítico.
Su idea de la libertad de expresión es que la gente se expresa, sin importar si lo que dice no guste a los demás. Incluso si resulta ofensivo o hace daño. “Queremos asegurarnos de que digan lo que no pueden decir en el lugar del que vienen. En cierta forma es una señal de salud”, dijo.
Así funciona la inteligencia artificial de Meta para generar imágenes o textos
Recientemente, se conoció que Meta presentó una nueva herramienta que permite la generación de imágenes y textos con inteligencia artificial (IA) utilizando para ello la predicción de ciertas partes del contenido e imitando el razonamiento humano.
La compañía explicó que esta solución es resultado de una idea del científico jefe de IA de Meta, Yann LeCun, que propuso “una nueva arquitectura destinada a superar las principales limitaciones de los sistemas de IA más avanzados”, según ha puntualizado en un comunicado.
Resultado de su trabajo es el Image Joint Embedding predictive Architecture (I-JEPA), una herramienta que recopila datos del mundo exterior, crea un modelo interno de este y compara representaciones abstractas de imágenes, en lugar de comparar los propios píxeles.
La compañía recordó que los humanos “aprenden una enorme cantidad de conocimientos previos sobre el mundo, observándolo de forma pasiva”, un aspecto que considera “clave para posibilitar un comportamiento inteligente”.
Por eso, el objetivo de este modelo es predecir la representación de una parte de un contenido, como puede ser una imagen o de un texto, a partir del contexto que le ofrezcan otras partes de la composición.
Una vez I-JEPA recoge toda esta información, se encarga de predecir los píxeles ausentes de una imagen o las palabras que no aparecen en un determinado texto, para darle un sentido natural y realista.
Meta ha comentado también que, a diferencia de otras inteligencias artificiales generativas, la suya utiliza “objetivos de predicción abstractos” para los que se eliminan los detalles innecesarios a nivel de píxel, de modo que permita al modelo aprender características semánticas adicionales.
La compañía ha indicado finalmente que continúa trabajando en ampliar el enfoque de esta herramienta a fin de que aprenda modelos “más generales” con base en modalidades más específicas. Por ejemplo, permitiendo hacer predicciones espaciales y temporales sobre acontecimientos futuros con un video a partir de un contexto simple.
*Con información de Europa Press