En los últimos meses les hemos hablado del auge de la inteligencia artificial y la robótica en China. Según las afirmaciones de Anthropic; Tres empresas de inteligencia artificial con sede en China, DeepSeek, Moonshot AI y MiniMax, utilizaron el modelo Claude AI para desarrollar sus propios modelos. Más de 24 mil cuentas falsas creado.
Según Anthropic, los laboratorios mencionados se comunicaron con Claude a través de estas cuentas mediante una técnica llamada “destilación”. Más de 16 millones de contactos fundado. La destilación es un método de entrenamiento común utilizado por los laboratorios de IA para crear versiones más pequeñas y económicas de sus modelos. Por otro lado, cabe señalar que los competidores pueden utilizar este método para copiar el trabajo de otros laboratorios.
Si recuerdas, OpenAI también hizo afirmaciones similares para DeepSeek R1. OpenAI incluso afirmó en un memorando a los legisladores de la Cámara a principios de este mes que DeepSeek estaba usando destilación para imitar los productos de la compañía. Anthropic, por otro lado, afirma que los laboratorios con sede en China se centran en las habilidades más diversas de Claude, como el razonamiento agente, el uso de herramientas y la codificación. Se espera que DeepSeek lance pronto su último modelo, DeepSeek V4. Se afirma que el modelo en cuestión funciona mejor que los modelos Claude de Anthropic y ChatGPT de OpenAI en términos de codificación. Sin embargo, estas nuevas afirmaciones eclipsan el rendimiento del modelo. Según la información compartida, Anthropic utiliza DeepSeek para mejorar la lógica básica y la compatibilidad. Más de 150 mil interacciones Él siguió.
Moonshot AI, que se hizo un nombre con su modelo de código abierto Kimi K2.5 lanzado el mes pasado, es Más de 3,4 millones de interacciones tenía. Estas interacciones tenían como objetivo el razonamiento agente y el uso de herramientas, la codificación y el análisis de datos, el desarrollo de agentes informáticos y la visión por computadora.
Supuestamente, MiniMax 13 millones de interaccionesOrquestación dirigida con codificación y herramientas agentes. Según Anthropic, la empresa pudo observar que en el lanzamiento del MiniMax, destinaba casi la mitad de su tráfico a atraer talentos del último modelo Claude.
Anthropic seguirá invirtiendo en sistemas de defensa que hagan que los ataques de destilación sean más difíciles de ejecutar y más fáciles de detectar. Sin embargo, la empresa pidió una respuesta coordinada entre la industria de la IA, los proveedores de la nube y los responsables políticos.
En su publicación, Anthropic dice que la escala de extracción realizada por DeepSeek, MiniMax y Moonshot requiere acceso a chips avanzados. Por lo tanto, los ataques a las destilaciones refuerzan los argumentos a favor de los controles de exportación, afirma la empresa. En opinión de Anthropic; El acceso restringido a los chips limita la escala tanto del entrenamiento directo del modelo como de la destilación ilícita. Además, Anthropic afirma que la destilación no sólo amenaza el dominio de la inteligencia artificial estadounidense sino que también podría crear riesgos para la seguridad nacional.
