La administración Trump argumentó en un expediente judicial el martes que no violó los derechos de la Primera Enmienda de Anthropic al designar al desarrollador de IA como un riesgo para la cadena de suministro y predijo que la demanda de la compañía contra el gobierno fracasará.
«La Primera Enmienda no es una licencia para imponer unilateralmente términos contractuales al gobierno, y Anthropic no cita nada para respaldar una conclusión tan radical», escribieron los abogados del Departamento de Justicia de Estados Unidos.
La respuesta se presentó en un tribunal federal de San Francisco, uno de los dos lugares donde Anthropic está impugnando la decisión del Pentágono de sancionar a la empresa con una etiqueta que puede impedir que las empresas obtengan contratos de defensa por preocupaciones sobre posibles vulnerabilidades de seguridad. Anthropic sostiene que la administración Trump se extralimitó en su autoridad al aplicar la etiqueta e impedir que las tecnologías de la empresa se utilizaran dentro del departamento. Si la designación se mantiene, Anthropic podría perder hasta miles de millones de dólares en ingresos esperados este año.
Anthropic quiere reanudar sus actividades como de costumbre hasta que se resuelva el litigio. Rita Lin, la jueza que supervisa el caso de San Francisco, ha programado una audiencia para el próximo martes para decidir si honra la solicitud de Anthropic.
Los abogados del Departamento de Justicia, que escribieron para el Departamento de Defensa y otras agencias en la presentación del martes, describieron las preocupaciones de Anthropic sobre la posible pérdida de negocios como «legalmente insuficientes para constituir un daño irreparable» y pidieron a Lin que le negara a la compañía un indulto.
Los abogados también escribieron que la administración Trump estaba motivada a actuar debido a “preocupaciones sobre la posible conducta futura de Anthropic si mantenía el acceso” a los sistemas tecnológicos del gobierno. «Nadie ha pretendido restringir la actividad expresiva de Anthropic», escribieron.
El gobierno argumenta que la presión de Anthropic para limitar cómo el Pentágono puede usar su tecnología de inteligencia artificial llevó al secretario de Defensa, Pete Hegseth, a determinar «razonablemente» que «el personal de Anthropic podría sabotear, introducir maliciosamente funciones no deseadas o subvertir de otro modo el diseño, la integridad o el funcionamiento de un sistema de seguridad nacional».
El Departamento de Defensa y Anthropic han estado peleando por posibles restricciones a los modelos Claude AI de la compañía. Anthropic cree que sus modelos no deberían usarse para facilitar una vigilancia amplia de los estadounidenses y actualmente no son lo suficientemente confiables para impulsar armas totalmente autónomas.
Varios expertos legales dijeron anteriormente a WIRED que Anthropic tiene un fuerte argumento de que la medida de la cadena de suministro equivale a una represalia ilegal. Pero los tribunales a menudo favorecen los argumentos de seguridad nacional del gobierno, y los funcionarios del Pentágono han descrito a Anthropic como un contratista que se ha vuelto rebelde y en el que no se puede confiar en sus tecnologías.
«En particular, al DoW le preocupaba que permitir a Anthropic el acceso continuo a la infraestructura de combate técnica y operativa del DoW introduciría un riesgo inaceptable en las cadenas de suministro del DoW», afirma la presentación del martes. «Los sistemas de IA son extremadamente vulnerables a la manipulación, y Anthropic podría intentar desactivar su tecnología o alterar preventivamente el comportamiento de su modelo antes o durante las operaciones de guerra en curso, si Anthropic, a su discreción, siente que se están cruzando sus ‘líneas rojas’ corporativas».
El Departamento de Defensa y otras agencias federales están trabajando para reemplazar las herramientas de inteligencia artificial de Anthropic con productos de compañías tecnológicas competidoras en los próximos meses. Uno de los principales usos de Claude por parte de los militares es a través del software de análisis de datos Palantir, dijeron a WIRED personas familiarizadas con el asunto.
En la presentación del martes, los abogados argumentaron que el Pentágono “no puede simplemente accionar un interruptor en un momento en que Anthropic es actualmente el único modelo de IA autorizado para su uso” en los “sistemas clasificados del departamento y se están llevando a cabo operaciones de combate de alta intensidad”. El departamento está trabajando para implementar sistemas de inteligencia artificial de Google, OpenAI y xAI como alternativas.
Varias empresas y grupos, incluidos investigadores de inteligencia artificial, Microsoft, un sindicato de empleados federales y ex líderes militares, han presentado escritos judiciales en apoyo de Anthropic. Ninguno ha sido presentado en apoyo al gobierno.
Anthropic tiene hasta el viernes para presentar una contrarrespuesta a los argumentos del gobierno.
