El proyecto de ley de California para Prevenir desastres de IA, SB 1047, La iniciativa ha enfrentado una oposición significativa de muchos partidos en Silicon Valley. Hoy, los legisladores de California cedieron levemente ante esa presión, agregando varias enmiendas sugeridas por la firma de inteligencia artificial Anthropic y otros oponentes.
El jueves, el proyecto de ley pasó por el Comité de Asignaciones de California, un paso importante para convertirse en ley, con varios cambios clave, dijo la oficina del senador Wiener a TechCrunch.
“Aceptamos una serie de enmiendas muy razonables propuestas y creo que hemos abordado las principales preocupaciones expresadas por Anthropic y muchos otros en la industria”, dijo el senador Wiener en una declaración a TechCrunch. “Estas enmiendas se basan en cambios significativos a la SB 1047 que hice anteriormente para dar cabida a las necesidades únicas de la comunidad de código abierto, que es una fuente importante de innovación”.
El proyecto de ley SB 1047 sigue teniendo como objetivo evitar que los grandes sistemas de inteligencia artificial maten a muchas personas o provoquen incidentes de ciberseguridad que cuesten más de 500 millones de dólares, al responsabilizar a los desarrolladores. Sin embargo, el proyecto de ley ahora otorga al gobierno de California menos poder para exigir cuentas a los laboratorios de inteligencia artificial.
¿Qué hace ahora la SB 1047?
En particular, el proyecto de ley ya no permite al fiscal general de California demandar a las empresas de inteligencia artificial por prácticas de seguridad negligentes antes de que se produzca un evento catastrófico, como sugirió Anthropic.
En cambio, el fiscal general de California puede buscar una medida cautelar, solicitando a una empresa que cese una determinada operación que considere peligrosa, y aún puede demandar a un desarrollador de IA si su modelo causa un evento catastrófico.
Además, la SB 1047 ya no crea la División de Modelos Fronterizos (FMD), una nueva agencia gubernamental que anteriormente estaba incluida en el proyecto de ley. Sin embargo, el proyecto de ley aún crea la Junta de Modelos Fronterizos (el núcleo de la FMD) y la ubica dentro de la Agencia de Operaciones Gubernamentales existente. De hecho, la junta ahora es más grande, con nueve personas en lugar de cinco. La Junta de Modelos Fronterizos aún establecerá umbrales de cómputo para los modelos cubiertos, emitirá guías de seguridad y emitirá regulaciones para los auditores.
El senador Wiener también modificó la SB 1047 para que los laboratorios de IA ya no tengan que presentar certificaciones de los resultados de las pruebas de seguridad “bajo pena de perjurio”. Ahora, estos laboratorios de IA simplemente están obligados a presentar “declaraciones” públicas que describan sus prácticas de seguridad, pero el proyecto de ley ya no impone ninguna responsabilidad penal.
El proyecto de ley SB 1047 también incluye ahora un lenguaje más indulgente sobre cómo los desarrolladores garantizan la seguridad de los modelos de IA. Ahora, el proyecto de ley exige que los desarrolladores proporcionen un “cuidado razonable” para que los modelos de IA no representen un riesgo significativo de causar una catástrofe, en lugar de la “garantía razonable” que exigía el proyecto de ley antes.
Además, los legisladores añadieron una protección para los modelos optimizados de código abierto. Si alguien gasta menos de 10 millones de dólares en optimizar un modelo cubierto, la SB 1047 no lo considera explícitamente un desarrollador. La responsabilidad seguirá recayendo en el desarrollador original y más grande del modelo.
¿Por qué todos los cambios ahora?
Si bien el proyecto de ley ha enfrentado una oposición significativa por parte de congresistas estadounidenses, reconocidos investigadores de inteligencia artificial, grandes empresas tecnológicas y capitalistas de riesgo, ha sido aprobado por la legislatura de California con relativa facilidad. Es probable que estas enmiendas apaciguen a los opositores a la SB 1047 y le presenten al gobernador Newsom un proyecto de ley menos controvertido que puede convertir en ley sin perder el apoyo de la industria de la inteligencia artificial.
Si bien Newsom no ha hecho comentarios públicos sobre la SB 1047, indicado previamente su compromiso con la innovación en inteligencia artificial de California.
Dicho esto, es poco probable que estos cambios apaciguen a los críticos acérrimos de la SB 1047. Si bien el proyecto de ley es notablemente más débil que antes de estas enmiendas, la SB 1047 aún responsabiliza a los desarrolladores por los peligros de sus modelos de IA. Ese hecho central de la SB 1047 no cuenta con el respaldo de todos, y estas enmiendas hacen poco por abordarlo.
De hecho, apenas unos momentos después de que la SB 1047 fuera aprobada por el comité de asignaciones de California, un grupo de ocho miembros del Congreso de los Estados Unidos escribió un carta pedirle al gobernador Newsom que vete la SB 1047, redactar el proyecto de ley “no sería bueno para nuestro estado, para la comunidad de empresas emergentes, para el desarrollo científico o incluso para la protección contra posibles daños asociados con el desarrollo de la IA”.
¿Que sigue?
El proyecto de ley SB 1047 ahora se dirige al pleno de la Asamblea de California para una votación final. Si se aprueba allí, deberá ser remitido nuevamente al Senado de California para su votación debido a estas últimas enmiendas. Si se aprueba en ambos casos, se dirigirá al escritorio del gobernador Newsom, donde podría ser vetado o promulgado como ley.