Para centros de datos impulsados por IA en el año fiscal 2025 Microsoft asignó 80 mil millones de dólaresestá estableciendo una nueva organización de ingeniería dentro de la empresa centrada en acelerar el desarrollo de software y infraestructura de IA. Información compartida por Bloomberg de acuerdo a, Jay Parikh dirigirá este nuevo episodio. Parikh, que reportará directamente al director ejecutivo de Microsoft, Satya Nadella, supervisará diferentes grupos, incluida la plataforma de inteligencia artificial de la compañía y los equipos de desarrolladores.
Por cierto, observemos que Parikh, quien anteriormente fue vicepresidente y jefe de ingeniería global en Meta, trabajó en proyectos de infraestructura técnica y centros de datos en Meta. Además, antes de unirse a Microsoft en octubre, Jay Parikh fue nombrado director ejecutivo de la startup de seguridad en la nube Lacework.
Detalles de CoreAI
Compartido por El borde información Según , esta nueva organización se llama «CoreAI – Plataforma y Herramientas». La organización en cuestión es una combinación de los equipos de plataforma de inteligencia artificial y Dev Div existentes de Microsoft, así como algunos empleados de la división de oficina de CTO. CoreAI está reorganizando activamente los equipos de desarrolladores de Microsoft para garantizar que la IA siga siendo una prioridad absoluta.
Microsoft en tu blog información compartida; También nos muestra la dirección de la empresa. Según Nadella; El enfoque de Microsoft para el próximo año estará en aplicaciones «modernas» que «remodelan categorías enteras de aplicaciones».
Implicaciones de seguridad del equipo rojo de Microsoft centrado en la inteligencia artificial
Mientras Microsoft avanza hacia una nueva estructura centrada en la inteligencia artificial, el equipo rojo de la compañía continúa su trabajo en inteligencia artificial sin disminuir el ritmo. El equipo ha publicado un nuevo documento técnico titulado «Lecciones del equipo rojo de 100 productos productivos de IA».
El informe encuentra que la IA generativa aumenta los riesgos de seguridad existentes. En este sentido, podemos decir que el equipo ha descubierto nuevas vulnerabilidades que requieren un enfoque multifacético para la mitigación de riesgos. En el ámbito del informe, se menciona que los modelos de inteligencia artificial generativa aumentan las vulnerabilidades de seguridad existentes y revelan nuevos vectores de ciberataques.
Según el informe; Dentro de la IA generativa, los riesgos de seguridad tradicionales, como los componentes de software obsoletos o el manejo inadecuado de errores, siguen siendo preocupaciones críticas. Pero, además, las debilidades a nivel de modelo, como las inyecciones rápidas, también crean desafíos únicos en los sistemas de IA.
Además, como se indica en el informe; Si bien las herramientas de automatización son útiles para crear indicaciones, orquestar ataques cibernéticos y calificar respuestas, la creación de un equipo rojo no se puede automatizar por completo. El informe señala que los equipos rojos de IA dependen en gran medida de la experiencia humana. Esto se debe a que los modelos de lenguaje que pueden identificar riesgos generales, como el discurso de odio o el contenido obsceno, tienen dificultades para evaluar cuestiones matizadas y específicas de un dominio. Aquí es donde los expertos en la materia pueden intervenir y evaluar contenidos en áreas específicas como la medicina, la ciberseguridad y contextos químicos, biológicos, radiológicos y nucleares donde la automatización suele ser inadecuada.
Finalmente, el informe señala que se necesita un enfoque en capas que combine pruebas continuas, defensas sólidas y estrategias adaptativas para mitigar los riesgos en la IA generativa.
