Antrópico no puede manipular su modelo de IA generativa Claude una vez que el ejército estadounidense lo tenga en funcionamiento, escribió un ejecutivo en un expediente judicial el viernes. La declaración se hizo en respuesta a las acusaciones de la administración Trump sobre la posible manipulación de la empresa de sus herramientas de inteligencia artificial durante la guerra.
«Anthropic nunca ha tenido la capacidad de hacer que Claude deje de funcionar, altere su funcionalidad, cierre el acceso o influya o ponga en peligro las operaciones militares», escribió Thiyagu Ramasamy, jefe del sector público de Anthropic. «Anthropic no tiene el acceso necesario para desactivar la tecnología o alterar el comportamiento del modelo antes o durante las operaciones en curso».
El Pentágono ha estado discutiendo con el principal laboratorio de inteligencia artificial durante meses sobre cómo se puede utilizar su tecnología para la seguridad nacional y cuáles deberían ser los límites a ese uso. Este mes, el secretario de Defensa, Pete Hegseth, calificó a Anthropic como un riesgo para la cadena de suministro, designación que impedirá que el Departamento de Defensa utilice el software de la compañía, incluso a través de contratistas, en los próximos meses. Otras agencias federales también están abandonando a Claude.
Anthropic presentó dos demandas impugnando la constitucionalidad de la prohibición y busca una orden de emergencia para revertirla. Sin embargo, los clientes ya han comenzado a cancelar ofertas. La audiencia sobre uno de los casos está prevista para el 24 de marzo en el tribunal federal de distrito de San Francisco. El juez podría decidir sobre una revocación temporal poco después.
En una presentación presentada a principios de esta semana, los abogados del gobierno escribieron que el Departamento de Defensa “no está obligado a tolerar el riesgo de que sistemas militares críticos se vean comprometidos en momentos cruciales para la defensa nacional y las operaciones militares activas”.
El Pentágono ha estado utilizando a Claude para analizar datos, escribir memorandos y ayudar a generar planes de batalla, informó WIRED. El argumento del gobierno es que Anthropic podría interrumpir las operaciones militares activas al desactivar el acceso a Claude o impulsar actualizaciones dañinas si la empresa desaprueba ciertos usos.
Ramasamy rechazó esa posibilidad. «Anthropic no mantiene ninguna puerta trasera ni ‘interruptor de apagado’ remoto», escribió. «El personal de Anthropic no puede, por ejemplo, iniciar sesión en un sistema DoW para modificar o desactivar los modelos durante una operación; la tecnología simplemente no funciona de esa manera».
Continuó diciendo que Anthropic podría proporcionar actualizaciones sólo con la aprobación del gobierno y su proveedor de nube, en este caso Amazon Web Services, aunque no especificó su nombre. Ramasamy agregó que Anthropic no puede acceder a las indicaciones ni a otros datos que los usuarios militares ingresan en Claude.
Los ejecutivos de Anthropic sostienen en documentos judiciales que la empresa no quiere poder de veto sobre decisiones tácticas militares. Sarah Heck, jefa de políticas, escribió en un expediente judicial el viernes que Anthropic estaba dispuesta a garantizar tanto en un contrato propuesto el 4 de marzo. “Para evitar dudas, [Anthropic] entiende que esta licencia no otorga ni confiere ningún derecho a controlar o vetar la toma de decisiones operativas legales del Departamento de Guerra”, decía la propuesta, según el documento, que hacía referencia a un nombre alternativo para el Pentágono.
La empresa también estaba dispuesta a aceptar un lenguaje que abordara sus preocupaciones sobre el uso de Claude para ayudar a llevar a cabo ataques mortales sin supervisión humana, afirmó Heck. Pero las negociaciones finalmente fracasaron.
Por el momento, el Departamento de Defensa ha dicho en documentos judiciales que «está tomando medidas adicionales para mitigar el riesgo de la cadena de suministro» que plantea la empresa al «trabajar con proveedores externos de servicios en la nube para garantizar que el liderazgo de Anthropic no pueda realizar cambios unilaterales» en los sistemas Claude actualmente en funcionamiento.
