domingo, septiembre 8, 2024
TecnologíaGoogle se dirige a los cineastas con Veo, su nuevo modelo de...

Google se dirige a los cineastas con Veo, su nuevo modelo de vídeo impulsado por IA

Han pasado tres meses desde que OpenAI demostró su cautivadora IA de texto a video, Sora, y ahora Google está tratando de robar parte de esa atención. Fue anunciado durante la conferencia de desarrolladores de E/S el martes, dice Google. Vista – Modelo de vídeo generativo impulsado por IA de última generación: puede crear vídeos «HD» de 1080p de 1 minuto en una amplia gama de estilos visuales y cinematográficos.

Veo tiene una «comprensión avanzada del lenguaje natural», según un comunicado de prensa de Google, lo que permite al modelo comprender términos cinematográficos como «time-lapse» o «tomas aéreas de paisajes». Los usuarios pueden dirigir los resultados deseados utilizando texto, imágenes o indicaciones basadas en videos, y Google dice que los videos resultantes son «más consistentes y cohesivos», y representan movimientos más realistas de personas, animales y objetos durante las tomas.

A continuación se muestran algunos ejemplos, pero si puede, ignore la baja resolución: tuvimos que comprimir videos explicativos en GIF.
Imagen: Google

Demis Hassabis, director ejecutivo de Google DeepMind, dijo en un avance de prensa el lunes que los resultados del video se pueden mejorar con indicaciones adicionales y que Google está explorando funciones adicionales para permitir a Veo producir guiones gráficos y escenas más largas.

Como ocurre con muchas de estas vistas previas de modelos de IA, la mayoría de las personas que esperan probar Veo por sí mismas probablemente tendrán que esperar un tiempo. Google dice que invita a cineastas y creadores seleccionados a poner a prueba el modelo para determinar la mejor manera de apoyar a los creadores y aprovechará esta colaboración para garantizar que «los creadores tengan voz» en cómo se desarrollan las tecnologías de inteligencia artificial de Google.

Aquí puedes ver cómo el sol vuelve a aparecer correctamente detrás del caballo y cómo la luz brilla suavemente a través de su cola.
Imagen: Google

Algunas funciones de Veo también estarán disponibles para «creadores seleccionados en las próximas semanas» en una vista previa especial dentro de VideoFX; puede Regístrate en la lista de espera aquí Para tener una oportunidad temprana de probarlo. Aparte de eso, Google también planea agregar algunas de sus capacidades a YouTube Shorts «en el futuro».

Este es uno de varios modelos de generación de vídeo que Google ha producido en los últimos años, desde Phenaki e Imagen Video (que produjeron vídeos sin editar y a menudo distorsionados) hasta el modelo Lumiere que mostró en enero de este año. Este último fue uno de los modelos más impresionantes que hemos visto antes de que se anunciara Sora en febrero, y Google dijo que Veo es más capaz de comprender lo que hay en video, simular la física del mundo real, ofrecer resultados de alta definición y más.

Mientras tanto, OpenAI ya está haciendo una demostración de Sora en Hollywood y planea lanzarlo al público a finales de este año, habiendo anunciado previamente en marzo que podría estar listo en «unos pocos meses». La compañía también está buscando integrar audio en Sora y puede que el modelo esté disponible directamente en aplicaciones de edición de video como Adobe Premiere Pro. Dado que Veo también se presenta como una herramienta para cineastas, el inicio temprano de OpenAI podría dificultar la competencia del proyecto de Google.

Debe leer
Noticias relacionadas