Centrada en la producción de vídeos de IA, Luma ha lanzado Luma Agents. Luma Agents está diseñado para manejar el trabajo creativo de un extremo a otro en texto, imágenes, video y audio. Impulsado por la familia de modelos de Inteligencia Unificada, Luma Agents se presenta como una nueva forma de trabajar para agencias de publicidad, equipos de marketing, estudios de diseño y empresas.
Detalles de Uni-1
Cabe señalar que los agentes de Luma están construidos sobre el modelo Uni-1, el primero de la familia de modelos de inteligencia artificial Unified Intelligence. Cabe agregar que la Uni-1 está capacitada en audio, video, imagen, lenguaje y razonamiento espacial. Al igual que Nano Banana Pro de Google y GPT Image 1.5 de OpenAI, Uni-1 se basa en un convertidor autorregresivo. En este contexto, Uni-1 se presenta como un modelo de inteligencia artificial que genera contenido secuencialmente token por token, en lugar de extraer imágenes del ruido como lo hacen los modelos de difusión tradicionales. En resumen, el texto y las imágenes comparten el mismo proceso de procesamiento.
Según Luma, el modelo puede desglosar instrucciones complejas y planificar escenas analizando comandos antes y durante el renderizado. Debemos tener en cuenta que este enfoque generalmente da como resultado un seguimiento de comandos mucho más preciso. En este contexto, Uni-1 puede tomar varias fotografías y combinarlas en una composición completamente nueva.
Según la información compartida por Luma, Uni-1 recibió la puntuación más alta en la prueba RISEBench de procesamiento de imágenes basado en lógica. De hecho, el modelo superó por poco a Nano Banana 2 y GPT Image 1.5. Cabe señalar que la capacidad de crear imágenes también fortalece la comprensión visual del modelo. El modelo, que tiene un rendimiento casi equivalente al Gemini 3 Pro de Google en reconocimiento de objetos, admite varios idiomas.
¿Qué ofrece Luma Agents?
Luma afirma que los agentes tienen la capacidad de planificar y producir texto, imágenes, video y audio en coordinación con modelos de inteligencia artificial. Los modelos utilizados por los agentes incluyen Ray 3.14 de Luma, Veo 3 y Nano Banana Pro de Google, Seedream de ByteDance y modelos de voz de ElevenLabs.
Amit Jain, director ejecutivo y cofundador de Luma Lo que hace que Luma Agents sea diferente, dice, es que no es necesario enviar comandos de un lado a otro para cada iteración de una imagen o idea. En cambio, el sistema crea grandes conjuntos de variaciones y permite a los usuarios determinar la dirección a través del habla.
Según Jain, los agentes de Luma pueden mantener de manera persistente el contexto entre activos, socios e iteraciones creativas. Los agentes pueden evaluar y mejorar los productos mientras mejoran sus propios resultados mediante una autocrítica iterativa.
Luma ya ha comenzado a utilizar la nueva plataforma de agentes con clientes existentes, incluidas las agencias de publicidad globales Publicis Groupe y Serviceplan, así como marcas como Adidas, Mazda y la empresa saudita de inteligencia artificial Humain. Como casos de uso, un resumen de 200 palabras y una imagen de producto pueden permitir que el sistema genere una variedad de ideas para diferentes ubicaciones, modelos y combinaciones de colores para una campaña publicitaria. Luma Agents convirtió una campaña publicitaria de un año de duración de 15 millones de dólares de una marca en múltiples anuncios localizados para diferentes países en 40 horas a un costo de menos de 20.000 dólares, dijo Jain. Además, este proceso pasó tanto por los controles de calidad internos de la marca como por controles de precisión.
Luma Agents está actualmente disponible a través de API. Luma planea abrir gradualmente Luma Agents a más usuarios en el próximo período.
