¿Sabías que puedes personalizar Google para filtrar la basura? Toma estos pasos para obtener mejores resultados de búsqueda, incluida la adición de mi trabajo en Lifehacker como fuente preferida.
La nueva aplicación Sora de OpenAI ha sido el foco principal de la IA hiperrealista en las últimas semanas. Sora hace que sea muy fácil para los usuarios generar videos de formato corto que parezcan lo suficientemente reales para la mayoría de las personas, incluidos videos que muestran imágenes de personas reales.
Pero antes de que Sora cayera, era Google quien estaba despertando temores sobre estos videos realistas de IA. Con Veo 3, Google lanzó un modelo de IA que no sólo producía vídeos realistas, sino que también generaba audio realista sincronizado con la acción. Se podrían generar efectos de sonido, entornos e incluso diálogos junto con el vídeo en sí, vendiendo el efecto por completo con un simple mensaje.
Veo 3.1
Ahora, Google está de regreso con una actualización a Veo, apropiadamente llamada Veo 3.1, que la compañía anunció en una publicación de blog el miércoles. Esto no es necesariamente una revisión o un nuevo modelo de video revolucionario. En cambio, Veo 3.1 se basa en Veo 3, agregando «audio más rico» y «realismo mejorado» que, según Google, genera texturas «reales». Según se informa, el nuevo modelo también admite nuevas herramientas de controles narrativos, que se combinan con nuevas actualizaciones de Flow, el editor de vídeo con inteligencia artificial de Google. Los usuarios de Flow ahora tienen controles más granulares al editar y pueden agregar audio a funciones existentes como «Ingredientes para video», «Marcos para video» y «Extender».
¿Qué significa eso en la práctica? Según Google, Ingredients to Video con Veo 3.1 permite a los usuarios agregar imágenes de referencia a sus escenas, como una persona específica, prendas de vestir o un entorno. El nuevo editor Flow puede luego insertar esos elementos en el producto terminado, como puede ver en el vídeo de demostración a continuación:
A partir de esta nueva característica, Flow ahora también te permite agregar nuevos elementos a una escena existente. Con «Insertar», puedes indicarle a Veo 3.1 que agregue nuevos personajes, detalles, efectos de iluminación y más al clip. Google dice que también está trabajando en lo contrario: permitir a los usuarios eliminar cualquier elemento que no les guste de una generación.
Google también tiene ahora una nueva forma para que los usuarios dicten cómo les gustaría que se genere una escena, llamada «Primer y último fotograma». Los usuarios pueden elegir marcos de referencia para el comienzo y el final de una escena. Luego, Flow con Veo 3.1 llenará el vacío y generará una escena que comienza y termina en función de esas imágenes.
¿Qué opinas hasta ahora?
Ahora también hay una forma de crear vídeos que son más largos que los que generarían las iteraciones anteriores de Flow. La nueva función «Extender» le permite continuar la acción del clip actual o pasar a una nueva escena que le sigue, aunque Google dice que la función es más útil para generar una toma de establecimiento más larga. Según la empresa, Extend puede crear vídeos que duran más de un minuto.
Veo 3.1 está disponible para los usuarios de la aplicación Gemini y de Vertex AI, siempre que tenga una suscripción a Google AI Pro. Los desarrolladores pueden acceder a él a través de la API de Gemini. Google dice que los ingredientes del vídeo, el primer y último fotograma y la extensión llegarán a la API de Gemini, pero «Agregar objeto» y «Eliminar objeto» no están disponibles. «Extender» tampoco está disponible aún en la API de Vertex AI.
¿Es esto realmente algo bueno?
Google ve todos estos avances como una bendición para los creativos y la creatividad, pero soy muy escéptico. Podría ver Veo 3.1 y Flow como una buena herramienta para visualizar tomas antes de filmarlas o animarlas (es decir, una herramienta de guión gráfico), o incluso una forma para que los cineastas nuevos y en ciernes aprendan a editar viendo sus ideas en una forma más realizada. Sin embargo, en general, no creo que el contenido generado por IA sea el futuro o, al menos, no es un futuro que la mayoría de nosotros deseamos. Claro, hay humor o novedad en algunos de estos videos generados por IA, pero apuesto a que la mayoría de las personas que los disfrutan lo hacen de manera irónica o exclusivamente en las redes sociales.
La idea de reemplazar a los cineastas y actores humanos con generaciones de IA parece absurda, especialmente cuando nos pone a todos en riesgo de recibir desinformación. ¿Es realmente tan importante para empresas como Google y OpenAI facilitar la generación de escenas hiperrealistas totalmente renderizadas, cuando esos videos podrían usarse tan fácilmente para engañar a las masas? Estas podrían ser las divagaciones de alguien que se resiste al cambio, pero no creo que a la mayoría de nosotros nos gustaría ver nuestros programas y películas favoritos hechos con pasión y emoción, reemplazados por personas de apariencia realista que ofrecen actuaciones silenciosas y robóticas.
