Un juez detiene la designación de riesgo antrópico en la cadena de suministro

Antrópico ganó un orden judicial preliminar que impide al Departamento de Defensa de EE. UU. etiquetarlo como un riesgo para la cadena de suministro, lo que potencialmente allana el camino para que los clientes reanuden su trabajo con la empresa. El fallo del jueves de Rita Lin, jueza de distrito federal en San Francisco, es un revés simbólico para el Pentágono y un impulso significativo para la empresa de IA generativa en su intento de preservar su negocio y su reputación.

«La designación de Anthropic por parte de los demandados como un ‘riesgo de la cadena de suministro’ es probablemente contraria a la ley y arbitraria y caprichosa», escribió Lin al justificar la reparación temporal. «El Departamento de Guerra no proporciona ninguna base legítima para inferir de la franca insistencia de Anthropic en las restricciones de uso que podría convertirse en un saboteador».

Anthropic y el Pentágono no respondieron de inmediato a las solicitudes de comentarios sobre el fallo.

El Departamento de Defensa, que bajo Trump se llama a sí mismo Departamento de Guerra, ha confiado en las herramientas Claude AI de Anthropic para escribir documentos confidenciales y analizar datos clasificados durante los últimos años. Pero este mes, comenzó a desconectar a Claude después de determinar que no se podía confiar en Anthropic. Los funcionarios del Pentágono citaron numerosos casos en los que Anthropic supuestamente impuso o intentó imponer restricciones de uso a su tecnología que la administración Trump consideró innecesarias.

En última instancia, la administración emitió varias directivas, incluida la designación de la empresa como un riesgo para la cadena de suministro, que han tenido el efecto de detener lentamente el uso de Claude en todo el gobierno federal y dañar las ventas y la reputación pública de Anthropic. La empresa presentó dos demandas impugnando las sanciones por inconstitucionales. En una audiencia el martes, Lin dijo que el gobierno parecía «paralizar» y «castigar» ilegalmente a Anthropic.

El fallo de Lin del jueves “restaura el status quo” al 27 de febrero, antes de que se emitieran las directivas. «No impide que ningún acusado emprenda cualquier acción legal que hubiera estado a su disposición» en esa fecha, escribió. «Por ejemplo, esta orden no requiere que el Departamento de Guerra utilice los productos o servicios de Anthropic y no impide que el Departamento de Guerra haga la transición a otros proveedores de inteligencia artificial, siempre que esas acciones sean consistentes con las regulaciones, estatutos y disposiciones constitucionales aplicables».

El fallo sugiere que el Pentágono y otras agencias federales todavía son libres de cancelar acuerdos con Anthropic y pedir a los contratistas que integran a Claude en sus propias herramientas que dejen de hacerlo, pero sin citar la designación de riesgo de la cadena de suministro como base.

El impacto inmediato no está claro porque la orden de Lin no entrará en vigor hasta dentro de una semana. Y un tribunal federal de apelaciones en Washington, DC aún no se ha pronunciado sobre la segunda demanda que presentó Anthropic, que se centra en una ley diferente según la cual a la empresa también se le prohibía proporcionar software a los militares.

Pero Anthropic podría utilizar el fallo de Lin para demostrar a algunos clientes preocupados por trabajar con un paria de la industria que la ley puede estar de su lado a largo plazo. Lin no ha fijado un calendario para tomar una decisión final.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept