OpenAI lanza una beca de seguridad para financiar investigaciones externas de IA
OpenAI está ampliando sus esfuerzos de seguridad más allá de sus muros con una nueva beca de seguridad que financiará a investigadores externos para estudiar los riesgos de la IA. La beca de seguridad OpenAI tendrá una duración de seis meses, desde septiembre de 2026 hasta febrero de 2027, según un anuncio de prensa, ampliando la participación de la empresa en trabajos de alineación y seguridad. La iniciativa surge en un momento en que las empresas de IA se enfrentan a un escrutinio cada vez mayor sobre cómo gestionan los riesgos asociados con los sistemas que avanzan rápidamente.
El programa está abierto a investigadores, ingenieros y profesionales externos a la empresa. Los participantes recibirán estipendios, acceso a modelos OpenAI y soporte técnico para realizar investigaciones en áreas como solidez, privacidad, supervisión de agentes y prevención de uso indebido. Se espera que los becarios produzcan resultados como artículos de investigación, puntos de referencia o conjuntos de datos.
OpenAI dijo que la beca tiene como objetivo «apoyar la investigación de alto impacto sobre la seguridad y la alineación de sistemas avanzados de IA» y ampliar la cantidad de personas que trabajan en desafíos técnicos de seguridad. El programa refleja una tendencia más amplia entre los principales desarrolladores de IA de financiar investigaciones externas a través de becas, residencias y asociaciones académicas.
Por ejemplo, Anthropic, una empresa rival de IA centrada en la seguridad, ejecuta un programa de becarios similar que apoya a investigadores independientes que trabajan en alineación, interpretabilidad y seguridad de la IA. El programa proporciona financiación, tutoría y recursos informáticos, y los participantes suelen producir investigaciones disponibles públicamente.
Google y su unidad DeepMind operan una variedad de programas de becas y estudiantes investigadores que colocan a los participantes en equipos de investigación durante varios meses. Estos programas cubren una amplia gama de temas de IA, incluido el trabajo relacionado con la seguridad, aunque no siempre se califican explícitamente como centrados en la alineación.
Microsoft y Meta también han ampliado la financiación para la investigación externa de IA a través de asociaciones académicas, subvenciones y programas de estilo residencia, a menudo destinados a avanzar en el trabajo sobre IA responsable y confiabilidad del sistema.
Juntas, estas iniciativas forman un ecosistema creciente de investigación financiada externamente vinculada a laboratorios de inteligencia artificial líderes.
OpenAI dijo que las áreas prioritarias para su beca incluyen «supervisión de agentes» y «dominios de uso indebido de alta gravedad», lo que refleja preocupaciones sobre sistemas capaces de tomar acciones de varios pasos con intervención humana limitada. Los avances recientes en las capacidades de IA han permitido que los sistemas realicen tareas más complejas, incluida la codificación, la asistencia a la investigación y la automatización del flujo de trabajo. Esto ha desplazado algunas preocupaciones de seguridad de resultados dañinos hacia la posibilidad de acciones no deseadas o dañinas tomadas por sistemas autónomos o semiautónomos.
El crecimiento de los programas de becas se produce en medio de una creciente demanda de investigadores de seguridad de la IA, un campo relativamente pequeño pero en expansión. Las empresas ofrecen compensaciones competitivas y acceso a recursos informáticos para atraer talento, mientras compiten para desarrollar modelos más avanzados. Al mismo tiempo, los gobiernos y los reguladores están aumentando la presión sobre los desarrolladores de IA para que demuestren que los sistemas se pueden implementar de forma segura y confiable.
Si bien los programas externos pueden ampliar la participación en el trabajo de seguridad, no reemplazan los procesos internos de toma de decisiones en las empresas de IA. Los investigadores que participan en becas normalmente no tienen autoridad directa sobre el lanzamiento de productos. Su trabajo es generalmente de asesoramiento, enfocado a identificar riesgos y proponer estrategias de mitigación. La responsabilidad de implementar sistemas de IA recae en las empresas que los construyen y operan.
OpenAI dijo que la beca es parte de un esfuerzo más amplio para apoyar la investigación y mejorar la comprensión de los riesgos de la IA, pero no proporcionó detalles sobre cómo se incorporarían los hallazgos del programa en las decisiones sobre productos.
Se espera que la primera cohorte de la beca de seguridad OpenAI se seleccione a finales de este año. Para obtener más información, visite el sitio de OpenAI.
Sobre el autor
John K. Aguas es el editor en jefe de varios sitios Converge360.com, centrándose en el desarrollo de alto nivel, la inteligencia artificial y la tecnología del futuro. Ha estado escribiendo sobre tecnologías de vanguardia y la cultura de Silicon Valley durante más de dos décadas y ha escrito más de una docena de libros. También coescribió el documental. Silicon Valley: un renacimiento de 100 añosque se transmitió por PBS. Se le puede contactar en [email protected].
