¿Lo que acaba de suceder? La vicepresidenta Kamala Harris ha anunciado un nuevo conjunto de requisitos para todas las agencias estadounidenses diseñados para garantizar que el uso de la IA siga siendo seguro y no discriminatorio. Estos incluyen el nombramiento de un director de IA para supervisar el uso de la tecnología por parte de cada agencia. Además, los viajeros podrán rechazar los escaneos de reconocimiento facial en los controles de seguridad del aeropuerto sin temor a las consecuencias.
Los requisitos, que entrarán en vigor el 1 de diciembre, establecen que además de nombrar un supervisor de IA, las agencias deberán establecer juntas de gobierno de IA. Cada agencia también debe publicar un informe en línea y en la Oficina de Gestión y Presupuesto (OMB) que muestre una lista completa de los sistemas de IA que utilizan, las razones para usarlos, los riesgos asociados y cómo pretenden mitigarlos.
Un alto funcionario de la administración Biden dijo que en algunas agencias, el director de IA será una persona designada políticamente, mientras que en otras no.
Las agencias ya han comenzado a contratar para este puesto; El Departamento de Justicia anunció a Jonathan Mayer como su primer CAIO en febrero. La presidenta de la OMB, Shalanda Young, dijo que el gobierno planea contratar 100 profesionales de IA para el verano.
«Hemos ordenado a todas las agencias federales que designen un director de IA con la experiencia, los conocimientos y la autoridad para supervisar todas las tecnologías de IA utilizadas por esa agencia, y esto es para garantizar que la IA se utilice de manera responsable, entendiendo que debemos tener líderes de alto nivel. en todo nuestro gobierno, quienes tienen la tarea específica de supervisar la adopción y el uso de la IA», dijo Harris a los periodistas.
Los nuevos requisitos se basan en la Orden Ejecutiva sobre Inteligencia Artificial Segura, Protegida y Confiable. Anunciado por el presidente Biden en octubre pasado. Ordenó, entre otras cosas, que se brinde orientación clara a los propietarios, los programas de beneficios federales y los contratistas federales para abordar las formas en que a menudo se utiliza la IA para profundizar la discriminación, los prejuicios y facilitar los abusos en la justicia, la atención médica y la vivienda.
Harris dio un ejemplo de cómo funcionarían los nuevos requisitos en la práctica: si la Administración de Veteranos quiere utilizar la IA en los hospitales de VA para ayudar a los médicos a diagnosticar a los pacientes, tendría que demostrar que el sistema de IA no produce «diagnósticos con sesgo racial».
Otros ejemplos incluyen que los viajeros tengan la posibilidad de optar por no usar el reconocimiento facial de la TSA sin sufrir retrasos o perder su lugar en la fila. Además, se requerirá supervisión humana cuando la IA se utilice para decisiones de diagnóstico críticas en los sistemas federales de salud y cuando la tecnología se utilice para detectar fraude en los servicios gubernamentales.
«Si una agencia no puede aplicar estas salvaguardas, debe dejar de utilizar el sistema de IA, a menos que el liderazgo de la agencia justifique por qué hacerlo aumentaría los riesgos para la seguridad o los derechos en general o crearía un impedimento inaceptable para las operaciones críticas de la agencia», se lee en la hoja informativa de la OMB. .
La guía agrega que cualquier modelo, código y datos de IA de propiedad gubernamental deben hacerse públicos a menos que representen un riesgo para las operaciones gubernamentales.