Helen Tónerun ex Miembro de la junta directiva de OpenAI y director de estrategia del Centro de Seguridad y Tecnología Emergente de Georgetown, le preocupa que el Congreso pueda reaccionar de manera «instintiva» en lo que respecta a la formulación de políticas de IA, si el status quo no cambia.
«El Congreso en este momento -no sé si alguien se ha dado cuenta- no es muy funcional, no es muy bueno para aprobar leyes, a menos que haya una crisis masiva», dijo Toner en el evento StrictlyVC de TechCrunch en Washington, DC el martes. “La IA será una tecnología grande y poderosa: algo saldrá mal en algún momento. Y si las únicas leyes que estamos recibiendo se hacen de manera instintiva, como reacción a una gran crisis, ¿será eso productivo?”
Los comentarios de Toner, que se producen antes de una cumbre patrocinada por la Casa Blanca el jueves sobre las formas en que se utiliza la IA para apoyar la innovación estadounidense, resaltan el estancamiento de larga data en la política de IA de Estados Unidos.
En 2023, el presidente Joe Biden firmó un orden ejecutiva que implementó ciertas protecciones al consumidor con respecto a la IA y requirió que los desarrolladores de sistemas de IA compartieran los resultados de las pruebas de seguridad con las agencias gubernamentales pertinentes. A principios de ese mismo año, el Instituto Nacional de Estándares y Tecnología, que establece estándares tecnológicos federales, publicó una hoja de ruta para identificar y mitigar los riesgos emergentes de la IA.
Pero el Congreso aún tiene que aprobar legislación sobre IA, o incluso proponer cualquier ley tan completa como regulaciones como la recientemente promulgada Ley de IA de la UE. Y siendo 2024 un año electoral importante, es poco probable que eso cambie pronto.
Como un informe del Instituto Brookings Como señala, el vacío en la formulación de normas federales ha llevado a los gobiernos estatales y locales a apresurarse a llenar el vacío. En 2023, los legisladores estatales introdujeron más de un 440% más de proyectos de ley relacionados con la IA que en 2022; Según el grupo de presión TechNet, en los últimos meses se han propuesto cerca de 400 nuevas leyes estatales sobre IA.
El mes pasado, los legisladores de California presentaron aproximadamente 30 nuevos proyectos de ley sobre inteligencia artificial destinados a proteger a los consumidores y los empleos. Colorado aprobó recientemente una medida que exige que las empresas de inteligencia artificial tengan “cuidado razonable” mientras desarrollan la tecnología para evitar la discriminación. Y en marzo, el gobernador de Tennessee, Bill Lee, promulgó la Ley ELVIS, que prohíbe la clonación mediante IA de voces o imágenes de músicos sin su consentimiento explícito.
El mosaico de normas amenaza con fomentar la incertidumbre tanto para la industria como para los consumidores.
Considere este ejemplo: en muchas leyes estatales que regulan la IA, la “toma de decisiones automatizada” (un término que se refiere ampliamente a los algoritmos de IA que toman algún tipo de decisión, como si una empresa recibe un préstamo) se define de manera diferente. Algunas leyes no consideran que las decisiones sean “automatizadas” siempre que se tomen con cierto nivel de participación humana. Otros son más estrictos.
Toner cree que incluso un mandato federal de alto nivel sería preferible al estado actual de las cosas.
“Algunos de los actores más inteligentes y reflexivos que he visto en este espacio están tratando de decir, está bien, ¿cuáles son las barreras de seguridad bastante ligeras y de sentido común que podemos implementar ahora para hacer que futuras crisis, futuras grandes problemas, probablemente menos graves y, básicamente, hacen que sea menos probable que acabe teniendo la necesidad de algún tipo de respuesta rápida y mal pensada más adelante”, dijo.