OpenAI ha dado más avances sobre su herramienta de Inteligencia Artificial (IA) generativa Sora, capaz de generar escenas realistas de video a partir de instrucciones de texto, que lanzará públicamente a finales de este año, aunque no ha concretado la fecha.
La firma presentó Sora hace un mes, cuando comentó que se trataba de un modelo que permitía la creación de escenas “altamente detalladas”, así como un movimiento de cámara “complejo” y la integración de múltiples personajes.
Para crear estos videos, que pueden tener una duración de hasta 60 segundos, los usuarios solo deben escribir una serie de indicaciones detallando qué características debe incluir la escena, como los personajes, las acciones que llevarán a cabo, el entorno, el clima y los movimientos de cámara que se deban recrear.
Entonces, OpenAI comentó que este modelo solo estaba disponible para los miembros del equipo rojo de la firma, esto es, el equipo dedicado a la investigación del servicio, de cara a ponerlo a prueba y comprobar qué fallos presenta y cuáles son sus posibles riesgos.
La directora de tecnología de OpenAI, Mira Murati, ha avanzado ahora en una entrevista con The Wall Street Journal que OpenAI no lanzará públicamente Sora hasta finales de este año, debido a que este equipo de desarrollo aún está trabajando para detectar vulnerabilidades, sesgos y otros resultados dañinos.
Sin entrar en detalle sobre cómo se entrena esta IA, ha comentado usa “datos disponibles públicamente y datos autorizados”, así como contenidos de Shutterstock, aunque ha asegurado que desconoce si parte de ellos proceden de videos de YouTube o de plataformas como Instagram y Facebook.
Asimismo, ha indicado que esta herramienta sigue el camino de Dall-E en el sentido de que no permite generar imágenes de figuras públicas, además de que la compañía está trabajando con artistas para determinar “barreras y limitaciones sin obstaculizar la creatividad”.
Experto dio aterradora respuesta sobre la inteligencia artificial
La inteligencia artificial (IA) ha experimentado una notable evolución durante los tiempos recientes. Si bien ha sido enfocada en el desarrollo de herramientas útiles para el ser humano en materia laboral y educativa, hay quienes hace un llamado a la mesura.
Según reveló un informe encargado por el Departamento de Estado de EE. UU., la inteligencia artificial representa un conjunto de riesgos “catastróficos” no solo para la humanidad, sino también para la seguridad nacional.
El informe titulado An Action Plan to increase the safety and security of advanced AI (Un plan de acción para incrementar la seguridad de la inteligencia artificial avanzada) basó sus hallazgos en entrevistas realizadas a más de 200 personas, entre ellas altos ejecutivos de empresas líderes de IA, investigadores de ciberseguridad, expertos en armas de destrucción masiva y funcionarios de seguridad nacional.
En resumidas cuentas, el informe asegura que los sistemas avanzados de inteligencia artificial podrían representar “una amenaza de extinción para la especie humana”.
“La inteligencia artificial ya es una tecnología económicamente transformadora. Podría permitirnos curar enfermedades, hacer descubrimientos científicos y superar desafíos que alguna vez pensamos que eran insuperables”, expuso Jeremie Harris, CEO y cofundador de Gladstone AI, en entrevista con la cadena CNN.
Sin embargo, destacó que también podría traer “riesgos graves”. Es más, trascendió que se incluyen “peligros catastróficos” de los cuales hay que tener consciencia.
“Un creciente conjunto de evidencia, incluyendo investigaciones y análisis empíricos publicados en las principales conferencias de IA del mundo, sugiere que por encima de un cierto umbral de capacidad, las inteligencias artificiales podrían volverse potencialmente incontrolables”, advirtió Harris al medio citado.
*Con información de Europa Press.