Elaborar leyes sensatas que regulen AI es uno de los desafíos más difíciles que debe enfrentar el gobierno. Esto es algo en lo que los organismos gubernamentales todavía están pensando. Bueno, hoy recibimos noticias de que la Administración Biden acaba de dar un paso más en este esfuerzo. El gobierno de EE. UU. ha revelado estrictos requisitos de seguridad que rigen a las agencias federales que utilizan herramientas y sistemas de inteligencia artificial.
En este momento, la inteligencia artificial es uno de los temas más delicados y controvertidos en tecnología. Probamos por primera vez la IA generativa en noviembre de 2022, y varios gobiernos han estado luchando por construir una legislatura que la rodee. Sin embargo, ha sido un proceso largo.
Recientemente, el La UE dio el primer paso importante al elaborar leyes que cubran la IA, y esto lo convierte en el primer organismo gubernamental en hacerlo. Las empresas y los países de la UE deben promulgar estas leyes en los próximos años sin enfrentar repercusiones.
También, la Oficina de Patentes de EE. UU. acaba de publicar una actualización haciendo saber al público que publicará leyes sólidas que regirán los derechos de autor y la inteligencia artificial en el transcurso de 2024. Planea publicar estas leyes para fin de año.
El gobierno de EE. UU. publicó requisitos para las agencias federales que utilizan IA
En este momento, todavía es bastante temprano para que se implementen estas nuevas barreras de seguridad, por lo que todos todavía nos preguntamos qué tipo de ramificaciones esperar. Como ocurre con cualquier regulación gubernamental, las agencias federales tienen varios meses para poner las cosas en marcha. Por lo tanto, este artículo se actualizará si el gobierno de EE. UU. presenta más requisitos de IA.
Primer requisito: Seguridad
En primer lugar, las agencias federales que utilizan herramientas de IA deben asegurarse de que estas herramientas no afecten negativamente los derechos o la seguridad de los ciudadanos estadounidenses. Por lo tanto, la herramienta no puede suprimir los derechos constitucionales de ningún ciudadano estadounidense ni provocar lesiones o la pérdida de la vida de ningún ciudadano.
¿Cómo puede un sistema de IA afectar los derechos de los usuarios?
Un ejemplo importante de esto es el uso de sistemas de inteligencia artificial para comprometer la privacidad de cualquier persona. Las agencias no pueden utilizar herramientas de inteligencia artificial para, por ejemplo, recopilar y determinar datos biométricos o faciales de las personas.
Otro gran ejemplo de esto será mantener los sistemas de inteligencia artificial alejados de todo lo relacionado con la votación. Actualmente estamos en 2024 y las elecciones presidenciales estadounidenses pronto comenzarán. Por lo tanto, las agencias no pueden utilizar herramientas de inteligencia artificial para contar, recopilar o afectar de otro modo los votos en las papeletas.
¿Cómo puede un sistema de IA afectar la seguridad?
Cuando se trata de impactar la seguridad, existen herramientas que no se pueden utilizar en ninguna aplicación del mundo real que pueda afectar la seguridad o la vida de las personas. Por lo tanto, las agencias que controlan las redes eléctricas, los sistemas de emergencia, el agua, el transporte, la medicina, etc. no pueden utilizar herramientas de inteligencia artificial para fines críticos.
En este punto, la IA generativa aún se está desarrollando, por lo que existe una alta posibilidad de que los sistemas de IA fallen. Por ejemplo, si un sistema de inteligencia artificial que controla el suministro de agua de una ciudad falla, podría tener efectos devastadores en esa ciudad y en las personas que viven allí.
Hay una excepción
Si una agencia o entidad quiere utilizar sistemas de IA para estas funciones, necesitará contar con salvaguardias concretas para garantizar que no habrá impacto negativo. Si la agencia puede justificar adecuadamente el uso de la herramienta, puede utilizarla.
Cualesquiera salvaguardias que utilicen las agencias federales dependerán de ellas, por lo que la pelota está en su tejado. Sin embargo, tendrán hasta diciembre para asegurarse de que todo esté en su lugar para que cualquier sistema que utilicen no afecte la seguridad o los derechos humanos.
Segundo requisito: Transparencia
El segundo de estos requisitos toca algo que preocupa al gobierno y a los ciudadanos estadounidenses con respecto a la IA; transparencia. Las agencias afectadas no pueden retener información crítica sobre los sistemas que utilizan o su impacto potencial en los ciudadanos estadounidenses.
Cada año, las agencias federales tendrán que “publicar en línea una lista de sus sistemas de inteligencia artificial, una evaluación de los riesgos que esos sistemas podrían plantear y cómo se están gestionando esos riesgos”, dijo la vicepresidenta de Estados Unidos, Kamala Harris. Esto no sólo garantizará que el gobierno sepa qué está utilizando cada empresa, sino que también garantizará que los ciudadanos estadounidenses sepan qué están utilizando las agencias.
Existe un problema importante con las empresas y agencias que mantienen sus actividades a puerta cerrada. Las personas cuyos datos entrenan los modelos de IA necesitan saber qué están haciendo estas entidades con sus datos. Por lo tanto, las agencias deberán ser completamente transparentes acerca de sus herramientas de inteligencia artificial.
Sin embargo, hay una excepción. Si la publicación de la información pone en riesgo la privacidad o la seguridad de cualquier ciudadano, entonces la agencia no tendrá que publicar un informe completo. Sin embargo, aún será necesario publicar métricas.
El tercer requisito: conocimiento de la IA
El último de los requisitos estadounidenses obliga a las agencias federales a tener conocimientos y conocimientos adecuados sobre la IA. Por lo tanto, cada departamento deberá nombrar un Jefe AI Ooficina para supervisar exactamente cómo estas agencias están utilizando la IA. Los directores de IA tendrán un conocimiento profundo y profesional de la inteligencia artificial. Esto podría ayudar al gobierno a tomar medidas y mitigar los riesgos potenciales.
Además de eso, varias agencias también necesitarán tener juntas de gobierno de IA. Deberán tenerlos antes del 27 de mayo.
¿Son estas leyes oficiales?
Técnicamente, no. Hace un tiempo, el presidente de los Estados Unidos firmó una orden ejecutiva para abordar las principales empresas y su uso de la IA. Estos requisitos amplían aún más la Orden Ejecutiva y describen más detalles. Sin embargo, estas no son leyes oficiales.
Si las agencias o entidades no cumplen con las barreras de seguridad descritas, queda por ver qué tipo de castigo recibirán, si es que reciben alguno. Si bien estas no son leyes oficiales, siguen siendo requisitos de la máxima autoridad del gobierno de los Estados Unidos, por lo que estas agencias deberán cumplirlas de todos modos.