La legislación de la Unión Europea (UE) que establecería barreras para el uso y desarrollo de la tecnología de inteligencia artificial parece estar en un camino claro hacia la ratificación, ya que dos grupos clave de legisladores en el Parlamento de la UE aprobaron el martes un acuerdo provisional sobre las reglas propuestas.
La Comisión de Libertades Civiles, Justicia y Asuntos de Interior (LIBE) y la Comisión de Mercado Interior y Protección del Consumidor (IMCO) del Parlamento de la UE aprobaron la Ley de IA con un «voto abrumadoramente favorable», poniendo las reglas «en camino de convertirse en ley», Dragoș Tudorache, miembro del Parlamento de la UE y presidente del Comité Especial de la UE sobre IA, tuiteó en Xanteriormente Twitter.
Las normas sobre las que el Parlamento de la UE votará formalmente en abril, exigen que las organizaciones y los desarrolladores evalúen las capacidades de la IA y las coloquen en una de cuatro categorías de riesgo: riesgo mínimo, limitado, alto e inaceptable. La ley es la primera legislación gubernamental integral que supervisa cómo se desarrollará y utilizará la IA, y ha recibido aprobación y cautela por parte de los tecnólogos.
«La prioridad del Parlamento «Es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, rastreables, no discriminatorios y respetuosos con el medio ambiente», dijo la UE al describir la legislación en línea. «Los sistemas de IA deberían ser supervisados por personas, en lugar de por automatización, para prevenir resultados perjudiciales.»
Configurado para simplificar
En esencia, la regulación es simple, dijo Nader Henein de Gartner, miembro de privacidad de la información, vicepresidente de investigación, protección de datos y privacidad. «Requiere que las organizaciones (y los desarrolladores) evalúen sus capacidades de IA y las coloquen en uno de los cuatro niveles definidos por la ley», dijo. «Dependiendo del nivel, hay diferentes responsabilidades que recaen en el desarrollador o en el implementador. «.
Algunos grupos de defensa e incluso un análisis de el gobierno de estados unidos Sin embargo, se han opuesto a la Ley de IA. Digital Europe, un grupo de defensa que representa a las industrias digitales en todo el continente, publicó un declaración conjunta en noviembre antes de las últimas semanas de negociaciones de la ley Advirtiendo que el exceso de regulación podría obstaculizar la innovación. y provocar que las nuevas empresas abandonen la región. El grupo instó a los legisladores a no «regular» a los nuevos actores de la IA en la UE «haciéndolos desaparecer» antes de que tengan siquiera la oportunidad.
Henein argumentó que los mandatos de la ley «no son de ninguna manera un obstáculo para la innovación. La innovación, por su naturaleza, encuentra una manera de funcionar dentro de los límites regulatorios y convertirla en una ventaja», dijo.
La adopción de las reglas «debería ser sencilla» siempre que los desarrolladores y revendedores brinden a los clientes la información que necesitan para realizar una evaluación o cumplir, dijo Henein.
Aún así, un experto en tecnología dijo que algunas críticas sobre la naturaleza prescriptiva de la Ley de IA y el lenguaje vago son válidas, y su relevancia podría no durar porque a menudo es difícil que las regulaciones avancen al ritmo de la tecnología.
«Hay algunas partes de la regulación que tienen mucho sentido, como la prohibición de la ‘vigilancia policial predictiva’, en la que se ordena a la policía perseguir a alguien sólo porque un sistema de inteligencia artificial se lo indica», dijo Jason Soroko, vicepresidente senior de producto de Sectigo, una empresa de gestión del ciclo de vida de los certificados. «Pero también hay partes de la regulación que podrían ser difíciles de interpretar y que podrían no ser duraderas, como regulaciones especiales para sistemas de IA más avanzados».
¿Más restricciones a la vista?
Además, las empresas podrían enfrentar desafíos de cumplimiento en el proceso de descubrimiento a medida que construyen un catálogo de casos de uso de IA existentes y la posterior categorización de esos casos de uso en la estructura de niveles de la Ley, dijo Henein.
«Muchas organizaciones piensan que son nuevas en la IA cuando, de hecho, casi no hay ningún producto destacado que tengan hoy en día que no tenga capacidades de IA», dijo Henein. «Las herramientas de detección de malware y filtros de spam se basan en el aprendizaje automático desde hace más de una década, entran en la categoría de sistemas de inteligencia artificial de bajo riesgo y no requieren la debida diligencia».
Si la UE vota para aprobar la ley en abril, como parece probable, otros países podrían seguirlo. Varias naciones – los Estados UnidosReino Unido y Australia entre ellos, ya han creado grupos liderados por el gobierno para supervisar el desarrollo de la IA; podrían seguir regulaciones más formales.
Aún así, es probable que las nuevas reglas solo se apliquen a los casos más extremos en los que la IA presenta un daño significativo a la humanidad o no. Los casos en los que se utiliza de manera responsable e incluso presenta beneficios, como la productividad de los trabajadores (lo cual es cierto en el caso de los chatbots de IA generativa que se utilizan actualmente y que se basan en modelos de lenguaje grandes (LLM, por sus siglas en inglés) como el ChatGPT de OpenAI, probablemente recibirán poca supervisión.
«Lo que estamos viendo en ambos lados del Atlántico es la necesidad de restringir directamente ciertos casos de uso; estos caen bajo la categoría prohibida bajo la Ley de IA y presentan un daño grave», dijo Henein.
Copyright © 2024 IDG Communications, Inc.