Un grupo de más de 150 padres envió una carta el viernes a la gobernadora de Nueva York, Kathy Hochul, instándola a firmar la Ley de Educación y Seguridad en IA Responsable (RAISE), un proyecto de ley de moda que requeriría que los desarrolladores de grandes modelos de IA, como Meta, OpenAI, Deepseek y Google, crearan planes de seguridad y siguieran reglas de transparencia para informar incidentes de seguridad.
El proyecto de ley fue aprobado tanto en el Senado como en la Asamblea del estado de Nueva York en junio. Pero esta semana, Hochul supuestamente propuso una reescritura casi total de la Ley RAISE que la haría más favorable para las empresas de tecnología, similar a algunos de los cambios realizados en la SB 53 de California después de que las grandes empresas de inteligencia artificial intervinieran.
Como era de esperar, muchas empresas de inteligencia artificial están totalmente en contra de la legislación. La AI Alliance, que cuenta
Meta, IBM, Intel, Oracle, Snowflake, Uber, AMD, Databricks y Hugging Face, entre sus miembros, enviaron una carta en junio a los legisladores de Nueva York detallando su “profunda preocupación” por la Ley RAISE, calificándola de “inviable”. Y Leading the Future, el súper PAC pro-IA respaldado por Perplexity AI, Andreessen Horowitz (a16z), el presidente de OpenAI, Greg Brockman, y el cofundador de Palantir, Joe Lonsdale, ha estado apuntando al asambleísta del estado de Nueva York, Alex Bores, quien copatrocinó la Ley RAISE, con anuncios recientes.
Dos organizaciones, ParentsTogether Action y Tech Oversight Project, redactaron la carta del viernes a Hochul, que afirma que algunos de los firmantes habían «perdido niños debido a los daños de los chatbots de IA y las redes sociales». Los firmantes llamaron a la Ley RAISE tal como está ahora “barandillas minimalistas” que deberían convertirse en ley.
También destacaron que el proyecto de ley, aprobado por la Legislatura del Estado de Nueva York, “no regula a todos los desarrolladores de IA, sólo a las empresas más grandes, las que gastan cientos de millones de dólares al año”. Se les exigiría que revelaran incidentes de seguridad a gran escala al fiscal general y publicaran planes de seguridad. A los desarrolladores también se les prohibiría lanzar un modelo de frontera “si hacerlo creara un riesgo irrazonable de daño crítico”, que se define como la muerte o lesiones graves de 100 personas o más, o mil millones de dólares o más en daños a derechos sobre dinero o propiedad derivados de la creación de un arma química, biológica, radiológica o nuclear; o un modelo de IA que “actúa sin intervención humana significativa” y “si lo cometiera un humano”, estaría incluido en ciertos delitos.
“La oposición de las grandes empresas tecnológicas a estas protecciones básicas parece familiar porque tenemos
He visto este patrón de evitación y evasión antes», afirma la carta. «Daño generalizado a los jóvenes…
incluso a su salud mental, estabilidad emocional y capacidad para funcionar en la escuela, ha sido
ampliamente documentado desde que las mayores empresas tecnológicas decidieron impulsar la tecnología algorítmica.
plataformas de redes sociales sin transparencia, supervisión o responsabilidad”.
