modelos actuales de inteligencia artificial (IA) no están preparadas como instrumentos para las políticas monetarias, pero la tecnología puede conducir a la extinción humana si los gobiernos no intervienen con las salvaguardias necesarias, según nuevos informes. E intervenir es exactamente lo que hizo la Unión Europea (UE) la semana pasada.
También: Los 3 mayores riesgos de la IA generativa y cómo afrontarlos
El Parlamento Europeo el miércoles convertido en ley el TENGO actuar, lo que marca la primera legislación importante de amplio alcance sobre IA que se establece a nivel mundial. La ley europea tiene como objetivo proteger contra tres riesgos clave, incluido el «riesgo inaceptable» donde los índices de puntuación social administrados por el gobierno, como los utilizados en China, están prohibidos.
«Las nuevas reglas prohíben ciertas aplicaciones de IA que amenazan los derechos de los ciudadanos, incluidos los sistemas de categorización biométrica basados en características sensibles y la extracción no selectiva de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial», dijo el Parlamento Europeo. «También estarán prohibidos el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social, la vigilancia policial predictiva (cuando se base únicamente en perfilar a una persona o evaluar sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas».
Las aplicaciones identificadas como de «alto riesgo», como las herramientas de escaneo de currículums que clasifican a los solicitantes de empleo, deben cumplir con requisitos legales específicos. Las aplicaciones que no figuran como de alto riesgo o que no están explícitamente prohibidas quedan en gran medida sin regulación.
Existen algunas exenciones para las fuerzas del orden, que pueden utilizar sistemas de identificación biométrica en tiempo real si se cumplen «salvaguardias estrictas», incluida la limitación de su uso en el tiempo y el alcance geográfico. Por ejemplo, estos sistemas pueden utilizarse para facilitar la búsqueda selectiva de una persona desaparecida o para prevenir un ataque terrorista.
Los operadores de sistemas de IA de alto riesgo, como los de infraestructuras críticas, educación y servicios públicos y privados esenciales, incluidos la atención médica y la banca, deben evaluar y mitigar los riesgos, así como mantener registros de uso y transparencia. Otras obligaciones que estos operadores deben cumplir incluyen garantizar la supervisión humana y la precisión de los datos.
También: A medida que los agentes de IA se propagan, también lo hacen los riesgos, dicen los académicos
Los ciudadanos también tienen derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afectan a sus derechos.
Los sistemas de inteligencia artificial de uso general y los modelos de capacitación en los que se basan deben cumplir ciertos requisitos de transparencia, incluido el cumplimiento de la ley de derechos de autor de la UE y la publicación de resúmenes del contenido utilizado para la capacitación. Los modelos más potentes que pueden plantear riesgos sistémicos enfrentarán requisitos adicionales, incluida la realización de evaluaciones de modelos y la notificación de incidentes.
Además, las imágenes, el audio y el contenido de vídeo artificiales o manipulados, incluidos deepfakesdebe estar claramente etiquetado como tal.
«Las aplicaciones de IA influyen en la información que ves en línea al predecir qué contenido te resulta atractivo, capturar y analizar datos desde rostros para hacer cumplir las leyes o personalizar anuncios, y se utilizan para diagnosticar y tratar el cáncer», dijo EU. «En otras palabras, la IA afecta muchas partes de su vida».
El coponente del comité de mercado interior de la UE y el italiano Brando Benifei dijeron: «Finalmente tenemos la primera ley vinculante del mundo sobre IA para reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia. Las prácticas inaceptables de IA serán prohibidas en Europa y los derechos de los trabajadores y los ciudadanos estarán protegidos.
Benifei añadió que se creará una Oficina de IA para ayudar a las empresas a cumplir las normas antes de que entren en vigor.
Los reglamentos están sujetos a una verificación final por parte de abogados y a un respaldo formal del Consejo Europeo. La Ley de IA entrará en vigor 20 días después de su publicación en el diario oficial y será plenamente aplicable dos años después de su entrada en vigor, con excepción de las prohibiciones de prácticas prohibidas, que se aplicarán seis meses después de la fecha de entrada en vigor. Los códigos de práctica también se aplicarán nueve meses después de que entren en vigor las reglas iniciales, mientras que las reglas de IA de propósito general, incluida la gobernanza, entrarán en vigor un año después. Las obligaciones para los sistemas de alto riesgo entrarán en vigor tres años después de la entrada en vigor de la ley.
Se ha desarrollado una nueva herramienta para guiar a las pequeñas y medianas empresas (PYMES) y a las nuevas empresas europeas para que comprendan cómo pueden verse afectadas por la Ley de IA. Sin embargo, el sitio de la Ley de IA de la UE señaló que esta herramienta sigue siendo un «trabajo en progreso» y recomienda que las organizaciones busquen asistencia legal.
También: La IA está potenciando la colaboración entre desarrolladores y usuarios empresariales
«La Ley de IA garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer.» la UE dijo. «Si bien la mayoría de los sistemas de IA plantean riesgos limitados o nulos y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables. Por ejemplo, a menudo no es posible descubrir por qué un sistema de IA ha hecho «Tomó una decisión o predicción y tomó una acción particular. Por lo tanto, puede resultar difícil evaluar si alguien ha sido injustamente desfavorecido, como en una decisión de contratación o en una solicitud para un plan de beneficios públicos».
La nueva legislación trabaja, entre otras cosas, para identificar aplicaciones de alto riesgo y exigir una evaluación estándar antes de que el sistema de IA se ponga en servicio o se comercialice.
La UE espera que su Ley de IA se convierta en un estándar global como su Reglamento General de Protección de Datos (RGPD).
La IA puede llevar a la extinción humana sin intervención humana
En Estados Unidos, un nuevo informe pide la intervención gubernamental antes de que los sistemas de inteligencia artificial se conviertan en armas peligrosas y conduzcan a eventos «catastróficos», incluida la extinción humana.
Publicado por Gladstone AI, el informe fue encargado y «producido para revisión» por el Departamento de Estado de EE.UU., aunque su contenido no refleja las opiniones de la agencia gubernamental, según los autores.
El informe destacó el progreso acelerado de la IA avanzada, que ha presentado tanto oportunidades como nuevas categorías de riesgos similares a las «armas de destrucción masiva». Estos riesgos se han visto impulsados en gran medida por la competencia entre los laboratorios de IA para construir los sistemas más avanzados capaces de alcanzar niveles humanos y sobrehumanos. inteligencia artificial general (AIG).
También: ¿Está realmente la humanidad condenada al fracaso? Consideremos el talón de Aquiles de la IA
Estos desarrollos están generando riesgos que son de escala global, tienen orígenes profundamente técnicos y están evolucionando rápidamente, dijo Gladstone AI. «Como resultado, los formuladores de políticas enfrentan una oportunidad cada vez menor de introducir salvaguardas técnicamente informadas que puedan equilibrar estas consideraciones y garantizar que la IA avanzada se desarrolle y adopte de manera responsable», dijo. «Estas salvaguardas son esenciales para abordar las brechas críticas de seguridad nacional que están surgiendo rápidamente a medida que avanza esta tecnología».
El informe señaló a los principales actores de la IA, incluidos Google, OpenAI y Microsoft, que han reconocido los riesgos potenciales, y señaló que la «perspectiva de una seguridad inadecuada» en los laboratorios de IA aumentaba el riesgo de que «los sistemas avanzados de IA pudieran ser robados a sus desarrolladores estadounidenses y utilizados como armas contra los intereses estadounidenses».
Estos laboratorios líderes en IA también resaltaron la posibilidad de perder el control de los sistemas de IA que están desarrollando, lo que puede tener «consecuencias potencialmente devastadoras» para la seguridad global, dijo Gladstone AI.
También: Caí bajo el hechizo de un psicólogo de IA. Entonces las cosas se pusieron un poco raras
«Dado el creciente riesgo para la seguridad nacional que plantea la rápida expansión de las capacidades de IA debido al uso de armas y la pérdida de control, y en particular, el hecho de que la actual proliferación de estas capacidades sirve para amplificar ambos riesgos, existe una necesidad clara y urgente de que EE.UU. que el gobierno intervenga», señala el informe.
Pidió un plan de acción que incluya la implementación de salvaguardias provisionales para estabilizar el desarrollo avanzado de la IA, incluidos controles de exportación en la cadena de suministro asociada. El gobierno de Estados Unidos también debería desarrollar una supervisión regulatoria básica y fortalecer su capacidad para etapas posteriores, y avanzar hacia un régimen legal interno de uso responsable de la IA, con una nueva agencia reguladora creada para ejercer la supervisión. Según el informe, esto debería ampliarse más adelante para incluir ámbitos multilaterales e internacionales.
La agencia reguladora debería tener poderes de elaboración de normas y concesión de licencias para supervisar el desarrollo y la implementación de la IA, añadió Gladstone AI. Un régimen de responsabilidad penal y civil también debería definir la responsabilidad por los daños inducidos por la IA y determinar el grado de culpabilidad por los accidentes y el uso de armas en todos los niveles de la cadena de suministro de la IA.
La IA no está preparada para impulsar las políticas monetarias
En otras partes de Singapur, el banco central reflexionó sobre el fracaso colectivo de las economías globales a la hora de predecir la persistencia de la inflación después de la pandemia.
Ante las preguntas sobre la efectividad de los modelos existentes, se preguntó a los economistas si deberían considerar los avances en el análisis de datos y las tecnologías de inteligencia artificial para mejorar sus pronósticos y modelos, dijo Edward S. Robinson, subdirector general de política económica y economista jefe de Monetary. Autoridad de Singapur (MAS).
Las técnicas tradicionales de big data y aprendizaje automático ya se utilizan ampliamente en el sector, incluidos los bancos centrales que las han adoptado en diversas áreas, señaló Robinson, quien fue hablando en el Taller Avanzado 2024 para Bancos Centrales celebrado a principios de la semana pasada. Estos incluyen el uso de inteligencia artificial y aprendizaje automático para la supervisión financiera y el seguimiento macroeconómico, donde se utilizan para identificar transacciones financieras anómalaspor ejemplo.
Sin embargo, los modelos actuales de IA aún no están listos como instrumentos para las políticas monetarias, afirmó.
«Una fortaleza clave de los enfoques de modelado de inteligencia artificial y aprendizaje automático en tareas predictivas es su capacidad para permitir que los datos determinen de manera flexible la forma funcional del modelo», explicó. Esto permite que los modelos capturen no linealidades en la dinámica económica de modo que imiten el juicio de los expertos humanos.
Avances recientes en IA generativa (GenAI) lleva esto más lejos, con grandes modelos de lenguaje (LLM) se capacitaron con grandes volúmenes de datos que pueden generar escenarios alternativos, dijo. Estos especifican y simulan modelos económicos básicos y superan a los expertos humanos en el pronóstico de la inflación.
También: La adopción y la innovación de la IA agregarán billones de dólares en valor económico
Sin embargo, la flexibilidad de los LLM es un inconveniente, dijo Robinson. Al señalar que estos modelos de IA pueden ser frágiles, dijo que su resultado a menudo es sensible a la elección de los parámetros o indicaciones del modelo utilizados.
Los LLM también son opacos, añadió, lo que dificulta analizar los impulsores subyacentes del proceso que se está modelando. «A pesar de sus impresionantes capacidades, los LLM actuales luchan con acertijos lógicos y operaciones matemáticas», dijo. «[It suggests] todavía no son capaces de proporcionando explicaciones creíbles por sus propias predicciones.»
Los modelos de IA actuales carecen de una estructura clara que permita que los modelos existentes sean útiles para los responsables de la formulación de políticas monetarias, añadió. Incapaces de articular cómo funciona la economía o discriminar entre narrativas en competencia, los modelos de IA aún no pueden reemplazar los modelos estructurales en los bancos centrales, afirmó.
Sin embargo, se necesita preparación para el día en que GenAI evolucione como GPT, dijo Robinson.