Singapur ha publicado un borrador de marco de gobernanza sobre inteligencia artificial generativa (GenAI) que, según afirma, es necesario para abordar cuestiones emergentes, incluida la notificación de incidentes y la procedencia del contenido.
El modelo propuesto se basa en el marco de gobernanza de la IA existente en el país, que fue lanzado por primera vez en 2019 y última actualizado en 2020.
También: Cómo la IA generativa brindará importantes beneficios a la industria de servicios
La GenAI tiene un potencial significativo para ser transformadora «más allá» de lo que la IA tradicional puede lograr, pero también conlleva riesgos, dijeron la AI Verify Foundation y la Infocomm Media Development Authority (IMDA) en una declaración conjunta.
hay crecimiento consenso global sobre principios consistentes Son necesarios para crear un entorno en el que GenAI pueda usarse de forma segura y confiable, dijeron las agencias gubernamentales de Singapur.
«El uso y el impacto de la IA no se limitan a países individuales», dijeron. «Este marco propuesto tiene como objetivo facilitar las conversaciones internacionales entre los responsables políticos, la industria y la comunidad de investigación, para permitir un desarrollo confiable a nivel mundial».
El borrador del documento incluye propuestas de un Informe de discusión IMDA había publicado en junio pasado, que identificaba seis riesgos asociados con GenAI, incluidas alucinaciones, desafíos de derechos de autore incrustado prejuiciosy un marco sobre cómo abordarlos.
El marco de gobernanza de GenAI propuesto también se basa en ideas de iniciativas anteriores, incluido un Catálogo sobre cómo evaluar la seguridad de los modelos GenAI. y pruebas realizadas a través de un entorno de pruebas de evaluación.
El borrador del modelo de gobernanza de GenAI cubre nueve áreas clave que Singapur cree que desempeñan un papel clave en el apoyo a un ecosistema de IA confiable. Estos giran en torno a los principios de que las decisiones impulsadas por la IA deben ser explicables, transparentes y justas. El marco también ofrece sugerencias prácticas que los desarrolladores de modelos de IA y los formuladores de políticas pueden aplicar como pasos iniciales, dijeron IMDA y AI Verify.
También: No estamos preparados para el impacto de la IA generativa en las elecciones
Uno de los nueve componentes analiza la procedencia del contenido: debe haber transparencia sobre dónde y cómo se genera el contenido, para que los consumidores puedan determinar cómo tratar el contenido en línea. Debido a que se puede crear tan fácilmente, el contenido generado por IA, como Los deepfakes pueden exacerbar la desinformacióndijeron las agencias de Singapur.
Al señalar que otros gobiernos están buscando soluciones técnicas como marcas de agua digitales y procedencia criptográfica para abordar el problema, dijeron que su objetivo es etiquetar y proporcionar información adicional, y se utilizan para marcar contenido creado con IA o modificado por ella.
Las políticas deben «diseñarse cuidadosamente» para facilitar el uso práctico de estas herramientas en el contexto adecuado, según el borrador del marco. Por ejemplo, puede que no sea factible que todo el contenido creado o editado incluya estas tecnologías en un futuro próximo y la información de procedencia también puede eliminarse. Los actores de amenazas pueden encontrar otras formas de eludir las herramientas.
El borrador del marco sugiere trabajar con editores, incluidas plataformas de redes sociales y medios de comunicación, para respaldar la incorporación y visualización de marcas de agua digitales y otros detalles de procedencia. Estos también deben implementarse de manera adecuada y segura para mitigar los riesgos de elusión.
También: Esta es la razón por la que la desinformación impulsada por la IA es el principal riesgo global
Otro componente clave se centra en la seguridad, donde GenAI ha traído consigo nuevos riesgos, como ataques rápidos infectados a través de la arquitectura del modelo. Esto permite a los actores de amenazas filtrar datos confidenciales o ponderaciones de modelos, según el borrador del marco.
Recomienda que Se necesitan mejoras para la seguridad por diseño. conceptos que se aplican al ciclo de vida del desarrollo de sistemas. Estos deberán analizar, por ejemplo, cómo la capacidad de inyectar lenguaje natural como entrada puede crear desafíos al implementar los controles de seguridad adecuados.
La naturaleza probabilística de GenAI también puede plantear nuevos desafíos a las técnicas de evaluación tradicionales, que se utilizan para perfeccionar el sistema y mitigar riesgos en el ciclo de vida del desarrollo.
El marco exige el desarrollo de nuevas salvaguardas de seguridad, que pueden incluir herramientas de moderación de entradas para detectar mensajes inseguros, así como herramientas forenses digitales para GenAI, utilizadas para investigar y analizar datos digitales para reconstruir un incidente de ciberseguridad.
También: Singapur vigila los centros de datos y los modelos de datos a medida que crece la adopción de la IA
«Es necesario lograr un equilibrio cuidadoso entre proteger a los usuarios e impulsar la innovación», dijeron las agencias gubernamentales de Singapur sobre el borrador del marco gubernamental. «Ha habido varios debates internacionales sobre temas relacionados y pertinentes como la responsabilidad, los derechos de autor y la desinformación, entre otros. Estos temas están interconectados y deben verse de manera práctica y holística. Ninguna intervención por sí sola será una solución mágica. «
Dado que la gobernanza de la IA sigue siendo un espacio incipiente, crear un consenso internacional también es clave, dijeron, señalando los esfuerzos de Singapur para colaborar con gobiernos como el Estados Unidos alineará su respectivo marco de gobernanza de la IA.
Singapur acepta comentarios sobre su borrador del marco de gobernanza GenAI hasta el 15 de marzo.