Tecnología | 02/15/2024 04:29:00 p. m. | Luz Noticias
Los avances en el campo de la inteligencia artificial generativa no se detienen, y las empresas que cuentan con algún modelo de IA buscan crear e implementar nuevos modelos que les permitan ser los pioneros en esta área.
Tal es el caso de OpenAI, que con sus modelos de Chat-GPT y DALL-E domina una buena cuota de mercado, y ahora ha presentado su primer modelo de generación de videos.
Se trata de Sora, un modelo que se encuentra en fase experimental y que permite la generación de videos a partir de texto, con una duración de 60 segundos.
Una de las particularidades de este nuevo modelo es que es capaz de crear complejas escenas con múltiples personajes, tipos de movimiento específicos y detalles bastante específicos de los objetos y el fondo.
De acuerdo a OpenAI, Sora, este modelo entiende cómo existen las cosas en el mundo físico, no solamente lo que le pide el usuario en el prompt.
Su funcionamiento es prácticamente el mismo que otros modelos de su estilo: los videos se generan a partir de un prompt o serie de instrucciones que describan el resultado deseado y Sora lo interpreta y genera la escena.
Sin embargo, una de sus debilidades es que no puede simular con precisión las físicas de una escena compleja y puede no entender las relaciones de causa y efecto; por ejemplo, una persona puede morder una galleta y esta continuar intacta.
A través de su blog, Sora muestra distintos ejemplos de escenas creadas a través de un prompt y sin ningún retoque adicional, en los cuales se puede ver la complejidad que es capaz de lograr, así como el problema que enfrenta al momento de interpretar las físicas complejas.
Esta herramienta aún se encuentra en fase de pruebas, por lo que no está abierta al público en general.