Google DeepMind, Microsoft y xAI permitirán al gobierno de EE. UU. estudiar nuevos modelos de IA

Google DeepMind, Microsoft Y xAI, Permitirá que el gobierno de EE. UU. revise los nuevos modelos de IA antes de entregarlos a los usuarios. Afiliado al Departamento de Comercio de EE. UU. Centro de Estándares e Innovación en Inteligencia Artificial (CAISI)Según su comunicado, la institución colaborará con empresas de inteligencia artificial para realizar evaluaciones e investigaciones específicas antes de que los modelos se pongan en uso con el fin de evaluar mejor las capacidades de inteligencia artificial más avanzadas. Este enfoque está asociado con la preocupación de los funcionarios estadounidenses por las capacidades de ataque cibernético del modelo Mythos recientemente introducido por Anthropic.

Google y xAI aún no han hecho una declaración oficial sobre el tema. Microsoft anunció un acuerdo similar con el Instituto de Seguridad de IA respaldado por el gobierno del Reino Unido, que se centra en el desarrollo de inteligencia artificial segura. Microsoft incluyó las siguientes declaraciones en su publicación de blog hablando de ambos acuerdos:

Si bien Microsoft realiza regularmente muchos tipos de pruebas de IA por su cuenta, las pruebas de seguridad nacional y riesgos de seguridad pública a gran escala requieren necesariamente un esfuerzo conjunto con los gobiernos.

Cabe señalar que CAISI comenzó a evaluar los modelos OpenAI y Anthropic en 2024. La institución hasta ahora ha 40 opiniones llevado a cabo. Según la información compartida por Bloomberg; OpenAI y Anthropic renegociaron sus asociaciones existentes con el centro para alinearse mejor con las prioridades del Plan de Acción de IA del presidente Donald Trump. Al afirmar que los desarrolladores a menudo entregan versiones de modelos sin medidas de seguridad, CAISI afirmó que el centro puede investigar los riesgos de seguridad nacional.

El director de CAISI, Chris Fall, dijo Dijo en el comunicado de prensa:

La ciencia de medición independiente y rigurosa es crucial para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional. Estas colaboraciones industriales ampliadas nos ayudan a escalar nuestro trabajo de interés público en un momento crítico.

Según información compartida por The New York Times, el presidente Trump está considerando emitir un decreto presidencial que reunirá a ejecutivos de tecnología y funcionarios gubernamentales para inspeccionar nuevos modelos de inteligencia artificial. En resumen, la Casa Blanca puede llevar estas evaluaciones aún más lejos en el futuro.

Fuente de la imagen: ChatGPT

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept