Australia pronto establecerá un grupo asesor de expertos para evaluar y desarrollar opciones para “barandillas obligatorias” en la investigación y el desarrollo de la IA, anunció el miércoles el Ministro de Industria y Ciencia, Ed Husic.
«El Gobierno ahora está considerando medidas de seguridad obligatorias para el desarrollo y despliegue de la IA en entornos de alto riesgo, ya sea mediante cambios en las leyes existentes o la creación de nuevas leyes específicas para la IA», afirmó. presione soltar anunciando el desarrollo dijo.
Incluso mientras evalúa medidas para controlar el desarrollo, Australia estaría trabajando con la industria para desarrollar un estándar de seguridad de IA voluntario y opciones para el etiquetado voluntario y marcas de agua de materiales generados por IA para garantizar una mayor transparencia.
Las barreras de seguridad obligatorias incluirán requisitos relacionados con pruebas para garantizar la seguridad de los productos antes y después de su lanzamiento. Además, el gobierno australiano dijo que está interesado en garantizar la rendición de cuentas, que puede incluir capacitación tanto para los desarrolladores como para los implementadores de sistemas de IA, certificaciones y expectativas de responsabilidad claramente definidas para las organizaciones que desarrollan e implementan sistemas de IA.
Australia también publicó su respuesta provisional al documento de consulta sobre IA segura y responsable en Australia. El país ahora ve la necesidad de ir más allá de las restricciones voluntarias al desarrollo de la IA, ya que plantea riesgos de sesgos, errores y transparencia limitada.
En el presupuesto del año pasado de mayo de 2023, el gobierno australiano anunció una inversión de $101,2 millones para ayudar a las empresas a utilizar la inteligencia cuántica y la inteligencia artificial en sus operaciones.
Impulso global para las regulaciones de IA
Varios países están trabajando para desarrollar políticas que aprovechen la tecnología de inteligencia artificial y al mismo tiempo mitiguen los riesgos asociados con ella. Recientemente, el La UE se convirtió en la primera región. introducir un conjunto integral de leyes para garantizar que la tecnología se utilice para el beneficio económico y social de la gente.
Además de la UE, el Reino Unido, Estados Unidos y China también están trabajando en regulaciones para gestionar mejor la tecnología. Alrededor de 28 países, incluida Australia, firmaron recientemente la Declaración de Bletchley para establecer oportunidades y riesgos comunes que plantea la IA. La regulación de la IA también es un tema de discusión en el actual Foro Económico Mundial en Davos, Suiza.
Australia está interesada en que sus regulaciones de IA estén en sintonía con el enfoque adoptado por otros países. «Como economía relativamente pequeña y abierta, la armonización internacional del marco de gobernanza de Australia será importante ya que, en última instancia, afecta la capacidad de Australia para aprovechar los sistemas habilitados para IA suministrados a escala global y fomentar el crecimiento de la IA en Australia», dijo la discusión. papel, IA segura y responsable en Australiapublicado por el gobierno australiano el año pasado.
A medida que la adopción de la IA se acelera, los países están tratando de elaborar regulaciones rápidamente para gestionar y regular mejor el impacto de la tecnología. Se sabe que la IA mejora la productividad y la eficiencia operativa de las empresas, pero también puede provocar pérdidas de empleo, desinformación y ataques cibernéticos si la utilizan elementos maliciosos.
Copyright © 2024 IDG Communications, Inc.