El Instituto Nacional de Estándares y Tecnología estableció el Instituto de seguridad de IA el 7 de febrero para determinar pautas y estándares para la medición y política de IA. Las empresas de IA de EE. UU. y las empresas que hacen negocios en EE. UU. se verán afectadas por esas directrices y estándares y pueden tener la oportunidad de hacer comentarios al respecto.
¿Qué es el consorcio del Instituto de Seguridad de IA de EE. UU.?
El Instituto de Seguridad de la IA de EE. UU. es un grupo de investigación conjunto de los sectores público y privado y un espacio de intercambio de datos para “creadores y usuarios de IA, académicos, investigadores gubernamentales y de la industria, y organizaciones de la sociedad civil”, según el NIST.
Las organizaciones podrían postularse para convertirse en miembros entre el 2 de noviembre de 2023 y el 15 de enero de 2024. De más de 600 organizaciones interesadas, NIST eligió 200 empresas y organizaciones para convertirse en miembros. Las organizaciones participantes incluyen Apple, Anthropic, Cisco, Hewlett Packard Enterprise, Hugging Face, Microsoft, Meta, NVIDIA, OpenAI, Salesforce y otras empresas, instituciones académicas y organizaciones de investigación.
Esos miembros trabajarán en proyectos que incluyen:
- Desarrollar nuevas directrices, herramientas, métodos, protocolos y mejores prácticas para contribuir a los estándares de la industria para desarrollar e implementar sistemas seguros y IA confiable.
- Desarrollar orientación y puntos de referencia para identificar y evaluar las capacidades de la IA, especialmente aquellas capacidades que podrían causar daño.
- Desarrollar enfoques para incorporar prácticas de desarrollo seguras para la IA generativa.
- Desarrollar métodos y prácticas para lograr con éxito el aprendizaje automático en equipos rojos.
- Desarrollar formas de autenticar el contenido digital generado por IA.
- Especificar y fomentar las habilidades de la fuerza laboral de IA.
«La IA responsable ofrece un enorme potencial para la humanidad, las empresas y los servicios públicos, y Cisco cree firmemente que un enfoque holístico y simplificado ayudará a Estados Unidos a aprovechar de forma segura todos los beneficios de la IA», afirmó Nicole Isaac, vicepresidenta de políticas públicas globales de Cisco. en una declaración al NIST.
VER: ¿Cuáles son las diferencias entre IA y aprendizaje automático? (Premium de TechRepublic)
«Trabajar juntos entre la industria, el gobierno y la sociedad civil es esencial si queremos desarrollar estándares comunes en torno a una IA segura y confiable», dijo Nick Clegg, presidente de asuntos globales de Meta, en una declaración al NIST. «Estamos entusiasmados de ser parte de este consorcio y trabajar en estrecha colaboración con el AI Safety Institute».
Una omisión interesante en la lista de miembros del Instituto de Seguridad de la IA de EE. UU. es el Future of Life Institute, una organización mundial sin fines de lucro con inversores entre los que se incluye Elon Musk, creada para evitar que la IA contribuya a “riesgos extremos a gran escala”, como una guerra global.
La creación del AI Safety Institute y su lugar en el gobierno federal
El Instituto de Seguridad de IA de EE. UU. se creó como parte de los esfuerzos establecidos por Orden ejecutiva del presidente Joe Biden sobre la proliferación y la seguridad de la IA en octubre de 2023.
El Instituto de Seguridad de la IA de EE. UU. está bajo la jurisdicción del Departamento de Comercio. Elizabeth Kelly es la directora inaugural del instituto y Elham Tabassi es su director de tecnología.
¿Quién trabaja en la seguridad de la IA?
En los EE. UU., la seguridad y la regulación de la IA a nivel gubernamental están a cargo del NIST y, ahora, del Instituto de Seguridad de la IA de los EE. UU. dependiente del NIST. Las principales empresas de IA de EE. UU. han trabajado con el gobierno en Fomentar la seguridad de la IA y habilidades para ayudar a la industria de la IA a construir la economía.
Las instituciones académicas que trabajan en la seguridad de la IA incluyen Universidad Stanford y Universidad de Maryland y otros.
Un grupo de internacional Las organizaciones de ciberseguridad establecieron el Directrices para el desarrollo seguro de sistemas de IA en noviembre de 2023 para abordar la seguridad de la IA en las primeras etapas del ciclo de desarrollo.