Mistral AI desarrolla nuevos modelos de código abierto

Mistral AI, una empresa tecnológica con sede en Francia, anunció que en el último periodo de 2025 Mistral 3 lanzó una nueva serie de modelos de inteligencia artificial. Cada uno de los modelos presentados código abierto compartido bajo licencia, y en total nueve variantes diferentes se encuentra.

La familia de modelos consta de tres escalas diferentes: Versiones de 3.000 millones, 8.000 millones y 14.000 millones de parámetros. Cada una de estas escalas está adaptada a tres tipos de tareas diferentes. Optimizadas para el uso básico, la generación de respuestas basadas en comandos y las tareas de razonamiento, estas variantes se compartieron bajo una estructura de licencia de código abierto. Licencia Apache 2.0 Los modelos pueden utilizarse en proyectos personales o comerciales sin ninguna limitación. Los desarrolladores pueden integrar estos modelos directamente en sus sistemas.

Cada uno de los modelos es adecuado para diferentes aplicaciones. Las versiones pequeñas son adecuadas para dispositivos móviles y sistemas integrados. Las versiones mediana y grande pueden utilizarse para tareas versátiles como el análisis, la generación de textos y el desarrollo de software. Los resultados de las muestras y las pruebas comparativas publicadas en Hugging Face permiten conocer el rendimiento general de los modelos. En estas pruebas se aprecia claramente la velocidad de procesamiento del texto y el nivel de cumplimiento de las instrucciones.

Modelo Mistral Large 3 desarrollado con 675.000 millones de parámetros

La versión más grande de la familia de modelos Mistral Grande 3es el modelo de mayor capacidad que la empresa ha lanzado hasta la fecha. Este modelo se entrenó desde cero en 3.000 unidades de procesamiento gráfico. En pruebas comparativas, Mistral Large 3 superó a DeepSeek 3.1 con 670.000 millones de parámetros y a Kimi-K2 con 1,2 billones de parámetros. El modelo no solo está orientado al texto; también puede trabajar con entradas visuales. Capacidad para procesar múltiples tipos de datoslo hace utilizable en tareas más flexibles.

El modelo está disponible no sólo en la propia plataforma de Mistral, sino también a través de distintos proveedores de servicios. Amazon Bedrock, Fundición Azure, Cara de abrazo, IBM WatsonX, Modal y servicios similares ofrecen soporte para este modelo. De este modo, puede incluirse en proyectos existentes sin realizar cambios en la infraestructura. Además, los manuales de usuario y las consultas de ejemplo se explican en detalle a través de documentos abiertos que se facilitan a los desarrolladores. Todos estos recursos facilitarán enormemente el proceso de integración.

Las versiones a pequeña escala de la familia de modelos se denominan «Ministral 3». Estas versiones están configuradas para su uso en sistemas que requieren un bajo consumo de energía y la generación de respuestas en tiempo real. También se incluyen en este grupo los primeros ejemplos de modelos con asistencia visual. Según la empresa, con estos modelos es posible desarrollar soluciones integrales e independientes del hardware.

Mistral AI aún no ha compartido los datos y métodos utilizados en el entrenamiento de los modelos. Sin embargo, los archivos de pesos, los diagramas de trabajo y las fichas de los modelos están a disposición del público. Este contenido, que puede descargarse de Hugging Face y GitHub, permite a cualquiera probar el modelo. Con estos modelos, los desarrolladores pueden experimentar directamente con el resumen de documentos, la generación de contenidos, la escritura de código y la interpretación de datos.

La empresa también ha anunciado planes para ampliar esta familia de modelos a lo largo del año. Cuando se lancen nuevas versiones, se mantendrá la compatibilidad con las anteriores. También se afirmó que, además de las versiones existentes, se están desarrollando nuevos modelos capaces de manejar contextos mucho más largos.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept