Fallos contradictorios dejan a Anthropic en el limbo del ‘riesgo de la cadena de suministro’

Antrópico “no tiene «cumplió los estrictos requisitos» para perder temporalmente la designación de riesgo de la cadena de suministro impuesta por el Pentágono, dictaminó el miércoles un tribunal de apelaciones de EE. UU. en Washington, DC. La decisión está en desacuerdo con una emitida el mes pasado por un juez de un tribunal inferior en San Francisco, y no quedó claro de inmediato cómo se resolverían los juicios preliminares contradictorios.

El gobierno sancionó a Anthropic en virtud de dos leyes diferentes sobre la cadena de suministro con efectos similares, y los tribunales de San Francisco y Washington, DC están fallando cada uno solo sobre una de ellas. Anthropic ha dicho que es la primera empresa estadounidense designada bajo las dos leyes, que normalmente se utilizan para castigar a las empresas extranjeras que representan un riesgo para la seguridad nacional.

“Otorgar una suspensión obligaría al ejército de Estados Unidos a prolongar sus tratos con un proveedor no deseado de servicios críticos de inteligencia artificial en medio de un importante conflicto militar en curso”, escribió el miércoles el panel de apelación de tres jueces en lo que describieron como un caso sin precedentes. El panel dijo que si bien Anthropic puede sufrir daños financieros por la designación en curso, no querían correr el riesgo de “una imposición judicial sustancial sobre las operaciones militares” o “anular ligeramente” los juicios de los militares sobre la seguridad nacional.

El juez de San Francisco determinó que el Departamento de Defensa probablemente actuó de mala fe contra Anthropic, impulsado por la frustración por los límites propuestos por la compañía de inteligencia artificial sobre cómo se podría utilizar su tecnología y su crítica pública a esas restricciones. El juez ordenó la eliminación de la etiqueta de riesgo de la cadena de suministro la semana pasada, y la administración Trump cumplió restableciendo el acceso a las herramientas de IA antrópica dentro del Pentágono y en el resto del gobierno federal.

La portavoz de Anthropic, Danielle Cohen, dice que la compañía está agradecida de que el tribunal de Washington, DC «reconociera que estos problemas deben resolverse rápidamente» y confía en que «los tribunales finalmente acordarán que estas designaciones de la cadena de suministro eran ilegales».

El Departamento de Defensa no respondió de inmediato a una solicitud de comentarios, pero el fiscal general interino Todd Blanche publicó una declaración en X. “La suspensión del circuito de DC de hoy, que permite al gobierno designar a Anthropic como un riesgo para la cadena de suministro, es una victoria rotunda para la preparación militar”, escribió. «Nuestra posición ha sido clara desde el principio: nuestro ejército necesita acceso total a los modelos de Anthropic si su tecnología se integra en nuestros sistemas sensibles. La autoridad militar y el control operativo pertenecen al Comandante en Jefe y al Departamento de Guerra, no a una empresa de tecnología».

Los casos están poniendo a prueba cuánto poder tiene el poder ejecutivo sobre la conducta de las empresas de tecnología. La batalla entre Anthropic y la administración Trump también se desarrolla mientras el Pentágono despliega IA en su guerra contra Irán. La compañía ha argumentado que está siendo castigada ilegalmente por insistir en que su herramienta de inteligencia artificial Claude carece de la precisión necesaria para ciertas operaciones sensibles, como llevar a cabo ataques mortales con drones sin supervisión humana.

Varios expertos en contratación gubernamental y derechos corporativos le han dicho a WIRED que Anthropic tiene argumentos sólidos contra el gobierno, pero los tribunales a veces se niegan a anular la decisión de la Casa Blanca en asuntos relacionados con la seguridad nacional. Algunos investigadores de IA han dicho que las acciones del Pentágono contra Anthropic “enfrían el debate profesional” sobre el rendimiento de los sistemas de IA.

Anthropic ha afirmado ante el tribunal que perdió negocios debido a la designación, que según los abogados del gobierno prohíbe al Pentágono y sus contratistas utilizar Claude AI de la compañía como parte de proyectos militares. Y mientras Trump permanezca en el poder, es posible que Anthropic no pueda recuperar el importante punto de apoyo que tenía en el gobierno federal.

Las decisiones finales en las dos demandas de la compañía podrían tardar meses. Está previsto que el tribunal de Washington escuche los argumentos orales el 19 de mayo.

Las partes han revelado detalles mínimos hasta ahora sobre cómo exactamente el Departamento de Defensa ha utilizado a Claude o cuánto progreso ha logrado en la transición del personal a otras herramientas de inteligencia artificial de Google DeepMind, OpenAI u otras. El ejército, que bajo el presidente Trump se autodenomina Departamento de Guerra, ha dicho que ha tomado medidas para garantizar que Anthropic no pueda intentar sabotear intencionalmente sus herramientas de inteligencia artificial durante la transición.

Actualización 8/4/26 7:27 EDT: Esta historia se ha actualizado para incluir una declaración del fiscal general interino Todd Blanche.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept