El gobierno de EE.UU. emitió nuevas reglas el jueves exigiendo más cautela y transparencia por parte de las agencias federales que utilizan inteligencia artificial, diciendo que son necesarios para proteger al público a medida que la IA avanza rápidamente. Pero la nueva política también contiene disposiciones para fomentar la innovación en IA en las agencias gubernamentales cuando la tecnología pueda usarse para el bien público.
Estados Unidos espera emerger como un líder internacional con su nuevo régimen de IA gubernamental. La vicepresidenta Kamala Harris dijo durante una rueda de prensa previa al anuncio que la administración planea que las políticas “sirvan como modelo para la acción global”. Dijo que Estados Unidos “seguirá pidiendo a todas las naciones que sigan nuestro ejemplo y pongan el interés público en primer lugar cuando se trata del uso gubernamental de la IA”.
La nueva política de la Oficina de Gestión y Presupuesto de la Casa Blanca guiará el uso de la IA en todo el gobierno federal. Requiere más transparencia en cuanto a cómo el gobierno utiliza la IA y también exige un mayor desarrollo de la tecnología dentro de las agencias federales. La política considera que la administración intenta lograr un equilibrio entre la mitigación de los riesgos derivados de un uso más profundo de la IA (cuyo alcance se desconoce) y el uso de herramientas de IA para resolver amenazas existenciales como el cambio climático y las enfermedades.
El anuncio se suma a una serie de medidas tomadas por la administración Biden para adoptar y restringir la IA. En octubre, el presidente Biden firmó un amplio orden ejecutiva sobre IA que fomentaría la expansión de la tecnología de IA por parte del gobierno, pero también requiere que quienes fabrican grandes modelos de IA brinden al gobierno información sobre sus actividades, en interés de la seguridad nacional.
En noviembre, Estados Unidos se unió al Reino Unido, China y miembros de la UE en firmando una declaración que reconoció los peligros de los rápidos avances de la IA, pero también pidió la colaboración internacional. Harris en la misma semana reveló un acuerdo no vinculante declaración sobre el uso militar de la IA, firmado por 31 naciones. Establece barreras de seguridad rudimentarias y exige la desactivación de sistemas que participan en «comportamientos no intencionados».
La nueva política para el uso de IA por parte del gobierno de EE. UU. anunciada el jueves pide a las agencias que tomen varias medidas para evitar consecuencias no deseadas de los despliegues de IA. Para empezar, las agencias deben verificar que las herramientas de inteligencia artificial que utilizan no pongan en riesgo a los estadounidenses. Por ejemplo, para que el Departamento de Asuntos de Veteranos utilice IA en sus hospitales debe verificar que la tecnología no proporcione diagnósticos con prejuicios raciales. La investigación ha encontrado que los sistemas de IA y otros algoritmos solía hacerlo informar el diagnóstico o decidir qué pacientes reciben atención puede reforzar patrones históricos de discriminación.
Si una agencia no puede garantizar tales salvaguardas, debe dejar de utilizar el sistema de IA o justificar su uso continuo. Las agencias estadounidenses tienen como fecha límite el 1 de diciembre para cumplir con estos nuevos requisitos.
La política también exige más transparencia sobre los sistemas de IA del gobierno, exigiendo a las agencias que publiquen modelos, datos y códigos de IA de propiedad gubernamental, siempre que la divulgación de dicha información no represente una amenaza para el público o el gobierno. Las agencias deben informar públicamente cada año cómo utilizan la IA, los riesgos potenciales que plantean los sistemas y cómo se mitigan esos riesgos.
Y las nuevas reglas también requieren que las agencias federales refuercen su experiencia en IA, obligando a cada una a nombrar un director de IA para supervisar toda la IA utilizada dentro de esa agencia. Es un papel que se centra en promover la innovación en IA y también en vigilar sus peligros.
Los funcionarios dicen que los cambios también eliminarán algunas barreras al uso de la IA en las agencias federales, una medida que puede facilitar una experimentación más responsable con la IA. La tecnología tiene el potencial de ayudar a las agencias a revisar los daños causados por desastres naturales, pronosticar condiciones climáticas extremas, mapear la propagación de enfermedades y controlar el tráfico aéreo.
Países de todo el mundo están tomando medidas para regular la IA. La UE votó en diciembre para aprobar su Ley de IAuna medida que rige la creación y el uso de tecnologías de IA, y adoptado formalmente a principios de este mes. China también está trabajando en regulación integral de la IA.