Alibaba Group, que ha pasado a primer plano añadiendo capacidades de agente a la aplicación Qwen en las últimas semanas, ha lanzado su nueva serie de modelos de inteligencia artificial, Qwen3.5, con funciones avanzadas. El modelo de IA Qwen3.5 es una solución intensiva en vulnerabilidades que permite a los usuarios ejecutar, ajustar e implementar el modelo en su propia infraestructura. Qwen3.5-397B-A17B Tiene una versión llamada . Alibaba también lanzó una versión alojada llamada Qwen-3.5-Plus. En esta versión, el modelo puede ejecutarse en los propios servidores de Alibaba. También es posible acceder a Qwen-3.5-Plus vía Poe.
Según Alibaba; Ofreciendo mejoras en rendimiento y costo, Qwen3.5 fue desarrollado con capacidades multimodales nativas que le permiten comprender texto, imágenes y video simultáneamente dentro de un solo sistema. Modelo, nuevas capacidades de codificación y agentes Al mismo tiempo que apoya la Con agentes de IA de código abierto como OpenClaw compatible.
Qwen3.5 por defecto Hasta 262 mil 144 tokens El comando se puede procesar. Además, al aplicar personalizaciones, los desarrolladores pueden aumentar este número en aproximadamente cuadriplicado puede eliminarlo. Los comandos en cuestión son Textos en más de 210 idiomas y dialectos así como imágenes como visualizaciones de datos También puede incluir.
Qwen3.5, que tiene una combinación de arquitectura experta, consta de múltiples redes neuronales optimizadas para diferentes tareas. En este contexto, cuando el modelo de lenguaje grande recibe una orden, Usando 10 redes neuronales produce una respuesta. Por tanto, es posible activar sólo algunos componentes del modelo para procesar comandos. Este enfoque ofrece una forma más eficiente en términos de hardware que el uso de neuronas artificiales completas. Total 397 mil millones de parámetros Qwen3.5 tiene estos por comando 17 mil millones está usando.
Mientras tanto Qwen3.5 es estándar encabezados de atención cuadrática (cabezas de atención cuadráticas), que requieren mucha menos memoria con títulos de atención lineales Combina. Vale la pena señalar que los encabezados de atención, que son los mecanismos que utiliza un modelo de lenguaje grande para determinar qué puntos de datos considerar al tomar decisiones, generalmente escalan cuadráticamente. En este contexto, cuando la cantidad de datos en una línea de comando se duplicó, la cantidad de RAM necesaria para producir una respuesta se cuadruplicó. Qwen3.5 viene con un enfoque más eficiente en esta área.
El modelo también incluye otra tecnología que mejora la productividad: red delta cerrada también utiliza. Esta tecnología combina dos técnicas de aprendizaje profundo conocidas como puerta y regla delta. La activación permite a un LLM eliminar de su memoria datos que no necesita para una tarea, mientras que la regla delta es una versión del algoritmo de retropropagación que los LLM utilizan para aprender nuevas tareas durante el entrenamiento.
de Qwen3.5 GPT-5.2 Y Claude 4.5 Opus’Se afirma que funciona mejor que el bronceado en algunas tareas. Qwen3.5 superó a GPT-5.2 y Claude 4.5 Opus en el benchmark IFBench, que mide qué tan bien los LLM siguen las instrucciones del usuario. En la evaluación comparativa de HMMT, Claude 4.5 superó la puntuación obtenida por Opus, pero no alcanzó a GPT-5.2. Es posible acceder a Qwen3.5 desde Hugging Face bajo la licencia de código abierto.
