El presidente Donald Trump pidió el viernes a las agencias federales estadounidenses que dejen de usar Claude AI de Anthropic después de que la compañía se negó a otorgar permiso al Departamento de Defensa para usarla para vigilancia doméstica masiva o para sistemas de armas totalmente autónomos.
El presidente publicó en la plataforma Truth Social, de su propiedad, que está ordenando al gobierno federal «CESAR INMEDIATAMENTE» el uso de las herramientas de Anthropic, diciendo que habría una eliminación gradual de seis meses para agencias como el Departamento de Defensa. También condenó a Anthropic como una «EMPRESA RADICAL DE IZQUIERDA Y DESPIERTA». La publicación marcó el último paso en un enfrentamiento que se intensificó significativamente esta semana entre Anthropic y el gobierno federal.
Claude se utiliza ampliamente en todo el Pentágono, incluso en sistemas clasificados, pero la administración Trump ha tratado de utilizar la tecnología para «cualquier propósito legal». Anthropic ha insistido en su contrato existente en que la tecnología no se utilice para la vigilancia masiva de estadounidenses o en sistemas autónomos de armas ofensivas sin intervención humana.
A principios de esta semana, el secretario de Defensa, Pete Hegseth, le dijo al director ejecutivo de Anthropic, Dario Amodei, que invocaría poderes rara vez utilizados para obligar a Anthropic a permitir que el Pentágono use a Claude para cualquier propósito legal o etiquetar a la compañía como un riesgo para la cadena de suministro, poniendo en peligro su uso por parte del gobierno o los contratistas de defensa. Hegseth le dio a Anthropic una fecha límite el viernes para cumplir.
El director general de Anthropic, Dario Amodei, dijo en un comunicado que la empresa, que fue fundada con un enfoque declarado en la seguridad de la IA, «no puede acceder en conciencia a [the Pentagon’s] «Solicito» que elimine las disposiciones del contrato que establecen que Claude no puede usarse en sistemas de armas totalmente autónomos o para vigilancia doméstica.
Leer más: Las cámaras Ring de Amazon profundizan en la vigilancia policial y gubernamental
Preocupaciones por la IA y la vigilancia masiva
Amodei expresó su preocupación de que la ley no haya abordado el potencial de vigilancia masiva de los estadounidenses. El gobierno ya puede comprar información como el historial de navegación de los estadounidenses y registros de movimientos individuales sin una orden judicial, pero la inteligencia artificial aumenta las apuestas. «La poderosa IA hace posible reunir estos datos dispersos e individualmente inocuos en una imagen integral de la vida de cualquier persona, de forma automática y a escala masiva», escribió.
Michael Pastor, decano de programas de derecho tecnológico en la Facultad de Derecho de Nueva York, dijo en un correo electrónico que es típico en el derecho contractual que los involucrados busquen claridad en los términos. «Anthropic tiene razón al presionar con fuerza sobre lo que significa ‘con fines legales'», dijo. «Si el Pentágono no está dispuesto a aclarar si utilizaría la tecnología de Anthropic para vigilancia interna masiva, parece justificado que Anthropic ondee banderas».
Según se informa, Claude de Anthropic es el sistema de inteligencia artificial más utilizado por el ejército estadounidense. Las alternativas podrían incluir herramientas de OpenAI, Google o xAI de Elon Musk.
En un memorando interno publicado por The Wall Street Journal el viernes, el CEO de OpenAI, Sam Altman, supuestamente les dijo a los empleados que la compañía tiene las mismas líneas rojas que Anthropic: no hay vigilancia doméstica masiva ni armas ofensivas autónomas. Altman dijo que creía que esas barreras de seguridad podrían gestionarse mediante requisitos técnicos, como exigir que los modelos se implementen en la nube. (Divulgación: Ziff Davis, la empresa matriz de CNET, presentó en 2025 una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).
Los empleados de Google y OpenAI hicieron circular una petición pidiendo a sus empresas que apoyen a Anthropic y se nieguen a permitir el uso de modelos de IA para vigilancia masiva nacional o sistemas de armas letales totalmente autónomos. La petición decía que el Pentágono está «tratando de dividir a cada empresa con miedo de que la otra ceda. Esa estrategia sólo funciona si ninguno de nosotros sabe cuál es la posición de los demás».
Al igual que en la tecnología de consumo, los sistemas de inteligencia artificial han experimentado una adopción generalizada en casos gubernamentales y militares. Estas herramientas han visto crecer sus capacidades significativamente en los últimos años, y ese ritmo de cambio no se ha desacelerado. La regulación y supervisión de la IA no han seguido el ritmo. La IA ha magnificado los daños potenciales de la vigilancia corporativa o gubernamental al hacerla más fácil y barata.
Pastor dijo que esta disputa podría tener ramificaciones significativas en la influencia que tienen los gobiernos y las empresas de tecnología entre sí cuando sus puntos de vista sobre el uso apropiado de la tecnología chocan. «Anthropic puede sentir que ceder aquí abre una caja de Pandora de usos para los cuales se podría utilizar a Claude», dijo.
