Meta anunció que el desarrollo y la publicación de los sistemas de inteligencia artificial, que considera muy arriesgado al ofrecer un nuevo marco para la seguridad de la inteligencia artificial. «Marco de AI fronterizoEsta nueva política, «se centra especialmente en los sistemas de inteligencia artificial que tienen grandes riesgos en la seguridad cibernética y la biomaturidad.
En ciertos casos, la compañía establece que puede preferir no hacer que sus propios modelos de inteligencia artificial sean abiertos al público.
La nueva política de Meta divide los sistemas de inteligencia artificial en dos categorías como «alto riesgo» y «riesgo crítico». Si bien los sistemas de alto riesgo pueden facilitar los ataques cibernéticos o las amenazas biológicas, los sistemas a niveles de riesgo crítico se consideran peligrosos para tener consecuencias de «desastre». Meta anunció que detendrá el desarrollo de sistemas que contienen riesgo crítico y que no se publicarán sin medidas de seguridad.
Meta sobre la evaluación de riesgos establece que se basará en las evaluaciones de un equipo de expertos internos y externos en lugar de un criterio de prueba específico. La compañía argumenta que los métodos científicos existentes son insuficientes para determinar los niveles de riesgo de los sistemas de inteligencia artificial, y que las decisiones finales serán tomadas por los ejecutivos altos. El desarrollo de sistemas de alto riesgo solo continuará con las medidas de seguridad determinadas.
Frontier AI Framework muestra que Meta está tratando de minimizar los riesgos mientras se mantiene una política de desarrollo de inteligencia artificial abierta.