Anthropic rechaza los nuevos términos del Pentágono y se mantiene firme en materia de armas letales autónomas y vigilancia masiva

Menos de 24 horas antes de la fecha límite, en un ultimátum emitido por el Pentágono, Anthropic rechazó las demandas del Departamento de Defensa de acceso irrestricto a su IA.

Es la culminación de un dramático intercambio de declaraciones públicas, publicaciones en redes sociales y negociaciones detrás de escena, que se reducen al deseo del Secretario de Defensa, Pete Hegseth, de renegociar los contratos actuales de todos los laboratorios de IA con el ejército. Pero Anthropic, hasta ahora, se ha negado a dar marcha atrás en sus dos líneas rojas actuales: ninguna vigilancia masiva de los estadounidenses y ninguna arma letal autónoma (o armas con licencia para matar objetivos sin supervisión humana alguna). Según se informa, OpenAI y xAI ya habían aceptado los nuevos términos, mientras que la negativa de Anthropic había llevado a que el CEO Dario Amodei fuera convocado a la Casa Blanca esta semana para una reunión con el propio Hegseth, en la que el Secretario supuestamente le dio un ultimátum al CEO para que se echara atrás antes del final del día hábil del viernes o de lo contrario.

En una declaración el jueves por la noche, Amodei escribió: «Creo profundamente en la importancia existencial de utilizar la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos. Por lo tanto, Anthropic ha trabajado de manera proactiva para desplegar nuestros modelos en el Departamento de Guerra y la comunidad de inteligencia».

Añadió que la compañía “nunca ha planteado objeciones a operaciones militares particulares ni ha intentado limitar el uso de nuestra tecnología de manera ad hoc”, pero que en un “conjunto limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos”, y mencionó específicamente la vigilancia interna masiva y las armas totalmente autónomas. (Amodei mencionó que “las armas parcialmente autónomas… son vitales para la defensa de la democracia” y que las armas totalmente autónomas pueden llegar a “resultar críticas para nuestra defensa nacional”, pero que “hoy en día, los sistemas de inteligencia artificial fronterizos simplemente no son lo suficientemente fiables como para alimentar armas totalmente autónomas”. No descartó que Anthropic consienta el uso de armas totalmente autónomas por parte de los militares en el futuro, pero mencionó que no estaban listas ahora.)

Según se informa, el Pentágono ya había pedido a los principales contratistas de defensa que evaluaran su dependencia de Claude de Anthropic, lo que podría verse como el primer paso para designar a la empresa como un “riesgo de cadena de suministro”, una amenaza pública que el Pentágono había hecho recientemente (y una clasificación generalmente reservada para amenazas a la seguridad nacional). Según se informa, el Pentágono también estaba considerando invocar la Ley de Producción de Defensa para que Anthropic cumpliera.

Amodei escribió en su declaración que las “amenazas del Pentágono no cambian nuestra posición: no podemos, en conciencia, acceder a su solicitud”. También escribió que «si el Departamento decide deshacerse de Anthropic, trabajaremos para permitir una transición fluida a otro proveedor, evitando cualquier interrupción de la planificación militar en curso, las operaciones u otras misiones críticas. Nuestros modelos estarán disponibles en los términos expansivos que hemos propuesto durante el tiempo que sea necesario».

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept