Anthropic está lanzando un nuevo grupo de expertos en medio de la lucha por la lista negra del Pentágono

En medio de un conflicto de una semana con el Pentágono, que resultó en una lista negra y una demanda, Anthropic está reorganizando su alta dirección y sus iniciativas de investigación. La compañía anunció el miércoles que lanzará un nuevo grupo de expertos interno, llamado Anthropic Institute, que combina tres de los equipos de investigación actuales de Anthropic. Se centrará en investigar las implicaciones a gran escala de la IA, como «qué sucede con los empleos y las economías, si la IA nos hace más seguros o introduce nuevos peligros, cómo sus valores podrían moldear los nuestros y si podemos mantener el control», según la compañía.

La noticia también viene con cambios en la alta dirección. El cofundador de Anthropic, Jack Clark, asumirá un nuevo rol al frente del grupo de expertos. Su nuevo título será el de jefe de beneficio público, luego de más de cinco años como jefe de políticas públicas. El equipo de políticas públicas, que triplicó su tamaño en 2025, según Anthropic, ahora estará dirigido por Sarah Heck, ex jefa de asuntos externos. Anthropic también abrirá su oficina prevista en Washington, DC, y el equipo de políticas públicas seguirá centrándose en cuestiones como la seguridad nacional, la infraestructura de IA, la energía y el «liderazgo democrático en IA».

clark dijo El borde que el debut del Anthropic Institute ha estado en proceso por un tiempo, y que ha estado pensando en asumir un papel como este desde noviembre. Pero el momento llega pocos días después de que Anthropic demandara al gobierno de EE. UU. por su designación como un riesgo para la cadena de suministro, lo que impediría a sus clientes utilizar la tecnología de Anthropic en su propio trabajo con el Departamento de Defensa. La demanda alega que la administración Trump incluyó ilegalmente a la empresa en la lista negra por establecer “líneas rojas” en vigilancia nacional masiva y armas letales totalmente autónomas.

Cuando se le preguntó al respecto, Clark dijo: «Nunca es aburrido trabajar en IA aquí en Anthropic; siempre sucede algo… El ritmo del progreso de la IA no se está desacelerando por eventos externos, y nosotros tampoco». Clark dijo que la situación no ha «cambiado directamente» la agenda de investigación planificada, pero sintió que «ha afirmado» la decisión de Anthropic de revelar más información al público. «Lo que estamos experimentando en las últimas semanas simplemente muestra cuánta hambre hay por una conversación nacional más amplia por parte del público sobre esta tecnología», dijo.

El Anthropic Institute se lanza con unas 30 personas, incluidos los miembros fundadores Matt Botvinick, ex miembro de Google DeepMind; Anton Korinek, profesor con licencia del departamento de economía de la Universidad de Virginia; y Zoe Hitzig, una investigadora que dejó OpenAI después de su decisión de introducir anuncios dentro de ChatGPT. El nuevo grupo de expertos combina el equipo de impacto social de Anthropic, que estudia los impactos de la IA en diferentes áreas de la sociedad; su equipo rojo fronterizo, que prueba los sistemas de inteligencia artificial en busca de vulnerabilidades y problemas; y su equipo de investigación económica, que rastrea las implicaciones de la IA para la economía y el mercado laboral. El Instituto Antrópico también planea “incubar” nuevos equipos, como un equipo dirigido por Botvinick que estudia cómo la IA afectará el sistema legal. Hitzig y Korinek dirigirán grandes proyectos de investigación económica. Clark dijo que espera que la cantidad de personal del grupo de expertos se duplique cada año en el futuro previsible.

Este año en particular, hay una presión cada vez mayor sobre las empresas de inteligencia artificial de alta valoración como Anthropic, que supuestamente planea salir a bolsa este año. Los documentos judiciales de Anthropic revelaron que la compañía generó más de 5 mil millones de dólares en ingresos comerciales de todos los tiempos y que ha gastado 10 mil millones de dólares hasta la fecha en entrenamiento e inferencia de modelos. También dijo que la compañía ha «recibido comunicación de numerosos socios externos… expresando confusión sobre lo que se les exigía y preocupación sobre su capacidad para continuar trabajando con Anthropic» y que «docenas de empresas se han puesto en contacto con Anthropic» en busca de orientación y «en algunos casos, comprensión de sus derechos de rescisión». Anthropic dijo que dependiendo de la interpretación de lo que el gobierno prohibirá, exactamente, “cientos de millones de ingresos de 2026 están en riesgo” al menos, y en el caso más grave, serían varios miles de millones.

¿Le preocupa a Anthropic dedicar más recursos a la investigación a largo plazo cuando es muy probable que pierda una parte de sus ingresos en el corto plazo? Cuando El borde preguntó Clark, y dijo que no tenía “ninguna preocupación”.

«La gente tiende a comprar confianza», dijo Clark. «Mucho de lo que podemos producir es el tipo de investigación que ayuda a las empresas a confiar en nosotros… A largo plazo, Anthropic siempre ha considerado su inversión en seguridad (y el estudio y la presentación de informes sobre la seguridad de sus sistemas) no como un centro de costos sino como un centro de ganancias».

Clark también dijo que cree que una poderosa IA (esencialmente el término propio de Anthropic para AGI, o inteligencia artificial general) llegará a finales de este año o principios de 2027, y que decidió cambiar de roles en gran medida debido al «ritmo del progreso de la IA». Añadió que cuando revisó su trabajo el año pasado, se centró más en cuestiones de política, como la SB 53, que en I+D de IA y otros asuntos a los que quería prestar atención. Anthropic dijo en un comunicado que el Anthropic Institute se dedica específicamente a responder las «preguntas más difíciles planteadas por la poderosa IA».

Por supuesto, como El borde Como escribió en diciembre, muchas empresas de tecnología están a favor de la transparencia hasta que es mala para los negocios. Entonces, ¿qué sucede si los equipos de investigación del Anthropic Institute descubren resultados que hacen que la empresa quede mal?

Clark dijo que los cofundadores de Anthropic tienen «valores similares» sobre la importancia de la divulgación pública, especialmente porque la empresa es técnicamente una corporación de beneficio público, lo que significa que tiene la capacidad de llevar a cabo objetivos «no únicamente para obtener ganancias fiduciarias». Añadió que en una conversación que tuvo con el director ejecutivo Dario Amodei la semana pasada, coincidieron en la importancia de la transparencia a pesar de los desafíos de relaciones públicas que podrían surgir de ella.

Pero la investigación del Anthropic Institute podría requerir una computación significativa en un momento en que las empresas se apresuran a priorizar los productos comerciales. Clark dijo que fuera de los recursos dedicados al entrenamiento previo del modelo de frontera, Anthropic asigna su cómputo semana a semana de acuerdo con «lo que parece más importante», por lo que no se ha reservado una porción precisa, pero no anticipa que haya ningún conflicto.

El Instituto Antrópico también planea estudiar la dependencia emocional de las personas de la IA, un problema cada vez más intenso que ha ganado conciencia pública durante el año pasado. Clark dijo que hasta ahora, los equipos de investigación de Anthropic han estudiado los tipos de conversaciones que ocurren con Claude y midieron la capacidad de la tecnología para persuadir a las personas sobre las cosas o actuar aduladoras, pero no han pasado tanto tiempo hablando con las personas que usan la tecnología sobre sus experiencias individuales. Dijo que el grupo de expertos planea realizar investigaciones de ciencias sociales a gran escala, incluido el uso de la IA de Anthropic para realizar entrevistas con los usuarios.

«Pienso en esto como: las redes sociales tuvieron un efecto enorme en la sociedad, y no se basó solo en lo que estaba sucediendo en las plataformas de redes sociales. Fue, ‘¿Cómo el uso de las redes sociales estaba cambiando a las personas?'», dijo Clark. «Queremos entender: ‘¿Cómo cambia a las personas el uso de la IA?'»

Seguir temas y autores de esta historia para ver más como esto en el feed personalizado de su página de inicio y recibir actualizaciones por correo electrónico.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept