Snap introdujo un modelo de inteligencia de rompecabezas de texto a imagen para dispositivos móviles

Hasta ahora, compañías como OpenAi y Google Con modelos de inteligencia artificial progresivo Quebrarde texto a imagen para dispositivos móviles, se desarrolló un modelo de investigación de inteligencia de yates explicado. Según la declaración de la compañía; Modelo uno iPhone 16 Pro Max en Imágenes de alta resolución en aproximadamente 1,4 segundos puede producir. El modelo planea admitir las características de Snapchat, incluidas las instantáneas de IA y los fondos de AI Bitmoji en los próximos meses.

Este nuevo modelo de difusión, que funciona completamente en el dispositivo, reduce los costos de cálculo en comparación con los modelos basados ​​en servidores grandes. Según Snap; El modelo podrá crear resultados visuales sorprendentes transfiriendo representaciones ricas de modelos de difusión a gran escala a este modelo más pequeño y más eficiente.

Al aplicar esta tecnología interna, la compañía dice que puede ofrecer a su comunidad vehículos de inteligencia artificial de alta calidad con un menor costo operativo. Snap, que no prefiere compartir más detalles sobre el modelo por el momento, dijo que es la continuación de la inversión a largo plazo en inteligencia artificial y tecnologías de aprendizaje automático.

La compañía incluyó las siguientes declaraciones en la publicación del blog:

«Estamos inspirados en la innovación industrial que hace que la inteligencia artificial sea más eficiente, asequible y accesible, y esperamos continuar contribuyendo al rápido tempo de la innovación, especialmente para las experiencias de prioridad móvil».

Con este nuevo paso, podemos decir que Snap tomó su lugar en la carrera de inteligencia artificial, aunque tarde. Veremos y veremos cómo se ubicará la compañía contra Meta, que se destaca con la serie de modelos Open Llama y Meta AI.

Deja un comentario

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept