Google dio a conocer una nueva tecnología llamada IMAGEN, un modelo basado en Inteligencia Artificial (IA) capaz de generar imágenes de gran realismo a partir de breves descripciones de texto.

IMAGEN es capaz de convertir palabras o breves descripciones, como “un pequeño cactus con sombrero de paja y gafas de sol de neón en el desierto del Sáhara” o “un perro Pomerania sentado en el trono del rey con una corona y dos soldados tigre junto a él”, en imágenes.

Para ello utiliza el Transformador de transferencia de texto a texto (T5), un modelo presentado en 2020 y en cuyos inicios era capaz de unificar entradas y salidas de cadenas de texto. Ahora, sin embargo, se ha modificado para realizar la síntesis de imágenes.

Si bien es cierto que, originalmente, la IA produce imágenes con una resolución de 64 x 64 píxeles, su tecnología es capaz de escalarlas primero a 256 x 256 píxeles y, a continuación, a 1.024 x 1.024 píxeles, generando un modelo de difusión en cascada.

Una de las premisas de IMAGEN es la de ofrecer resultados con un nivel de detalle más preciso con respecto a otros sistemas de conversión de texto en imágenes similares, como VQ-GAN+CLIP y DALL-E 2.

Para ello, ha presentado “una prueba de referencia exhaustiva y exigente para los modelos de texto-imagen” llamada DrawBench, que compara el modelo de Google con los anteriormente mencionados.

Este punto de referencia sirve para probar cómo se llevan a imágenes aspectos narrados en el texto, como la composición, la fidelidad, la cardinalidad, y las relaciones espaciales de los objetos.

La compañía ha destacado algunos puntos importantes de la investigación de imagen llevada a cabo para desarrollar esta IA, como el desarrollo de la nueva arquitectura propia Efficient U-Net, que es más eficiente en computación y en memoria.

Aún en desarrollo

Google ha anunciado que, por el momento, esta IA no es de código abierto ni accesible a nivel global. Esta decisión deriva de los posibles riesgos potenciales de uso indebido por parte de los usuarios.

Con ello, ha reconocido que las primeras pruebas que se han llevado a cabo con esta IA han permitido rápidos avances algorítmicos gracias a datos extraídos de Internet y que aún quedan muchos aspectos por mejorar.

En este sentido, ha indicado que estos datos no reflejan la diversidad, sino que se han centrado en “esterotipos sociales, puntos de vista opresivos y asociaciones despectivas o dañinas con grupos de identidad marginados”.

Además, ha puntualizado que, aunque han llevado un control para filtrar los datos que han recopilado para sus primeras pruebas con IMAGEN, el conjunto de datos utilizado LAION-400M mantiene una “contenido inapropiado, incluidas imágenes pornográficas, insultos racistas y estereotipos sociales dañinos”.

Cabe recordar que hace unas semanas la empresa de investigación en IA sin ánimo de lucro OpenAI presentó DALL-E, su nuevo sistema de IA capaz también de convertir las palabras en imágenes realistas.

Esta tecnología puede editar fotografías con base en una petición escrita. Dentro de esta función entra la posibilidad de eliminar elementos como sombras, reflejos y texturas.

Por otra parte, Google ha rediseñado los anuncios de compras en el Buscador, donde además de contar con una etiqueta para su identificación, los anunciantes podrán compartir sus productos como modelos tridimensionales en realidad aumentada, una novedad que en YouTube acompaña con la entrada de las campañas publicitarias en Shorts.

La tecnológica ha celebrado este martes el Google Live Marketing 2022, el evento anual en el que presenta las novedades que podrán aprovechar los anunciantes a través de Google Ads.

Google afirma en un comunicado publicado en su blog que, cada día, tienen lugar más de 1.000 millones de procesos de compra a lo largo y ancho de la plataforma, que engloba a su Buscador y a YouTube, entre otras.

*Con información de Europa Press.