Deepseek introdujo el modelo de inteligencia artificial centrado en la producción visual Janus-Pro-7b

Iniciativa de inteligencia artificial basada en chino Deepseek, nuevo modelo de inteligencia artificial centrada en la producción de imágenes Janus-Pro-7bintroducido. Según la declaración de la compañía, en el campo de la transformación del modelo a la visual, los modelos de difusión estables de OpenAi’s Dall-E 3 y Stability AI han logrado un éxito notable.

El Janus-Pro-7B estaba equipado con mejoras significativas en comparación con el modelo Janus anterior. El modelo fue entrenado con un gran conjunto de datos de 72 millones de imágenes sintéticas de alta calidad. Este conjunto de datos se combina de manera equilibrada con las imágenes del mundo real, lo que permite que el modelo produzca imágenes más realistas, detalladas y creativas. Deepseek dice que el modelo es una posición principal en la creación de detalles finos y escenas visuales complejas.

La compañía logró mejorar el rendimiento al centrarse en la calidad de los datos y el tamaño del modelo del modelo en el proceso de capacitación. También se afirma que Janus-PRO-7B también produce imágenes más rápidas al consumir menos energía del procesador. Esta característica no estará mal si decimos que aumenta el encanto del modelo tanto para usuarios individuales como para empresas a gran escala.

Con el lanzamiento del modelo anterior Janus R1 de la compañía, las acciones de gigantes tecnológicos como Nvidia y Oracle disminuyeron. Se predice que Janus-PRO-7B puede tener un efecto similar y aglomerarse aún más la competencia en la industria. Según los expertos, este modelo de Deepseek puede establecer un nuevo estándar en la producción de inteligencia artificial, lo que hace que Operai y otros actores importantes reconsideren sus estrategias. Además, la presentación del modelo como código abierto le permite tener un impacto más amplio en el mundo de la tecnología.

Deja un comentario

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept