La Casa Blanca ha Anunciado el «primer gobierno política para mitigar los riesgos de la inteligencia artificial (IA) y aprovechar sus beneficios». Para coordinar estos esfuerzos, cada agencia federal debe nombrar un director de IA con «experiencia significativa en IA».
Algunas agencias ya han designado directores de IA, pero cualquier agencia que no lo haya hecho debe nombrar a un alto funcionario en los próximos 60 días. Si un funcionario ya designado como director de IA no tiene la autoridad necesaria para coordinar el uso de la IA en la agencia, se le debe otorgar autoridad adicional o, de lo contrario, se debe nombrar un nuevo director de IA.
Los candidatos ideales, recomendó la Casa Blanca, podrían incluir directores de información, directores de datos o directores de tecnología, dijo la política de la Oficina de Gestión y Presupuesto (OMB).
Como directores de IA, las personas designadas actuarán como asesores senior en iniciativas de IA, monitoreando e inventariando todos los usos de la IA por parte de las agencias. Deben realizar evaluaciones de riesgos para considerar si algún uso de la IA está afectando «la seguridad, los derechos civiles, las libertades civiles, la privacidad, los valores democráticos, los derechos humanos, la igualdad de oportunidades, el bienestar de los trabajadores, el acceso a recursos y servicios críticos, la confianza de las agencias y credibilidad y competencia en el mercado», afirmó la OMB.
Quizás lo más urgente es que antes del 1 de diciembre los funcionarios deben corregir todos los usos de IA que no cumplan con las normas en el gobierno, a menos que se conceda una extensión de hasta un año.
Los directores de IA aparentemente disfrutarán de mucho poder y supervisión sobre cómo el gobierno utiliza la IA. Depende de los directores de IA desarrollar un plan para cumplir con los estándares mínimos de seguridad y trabajar con los directores financieros y de recursos humanos para desarrollar los presupuestos y la fuerza laboral necesarios para utilizar la IA para promover la misión de cada agencia y garantizar «resultados equitativos», OMB dicho. Aquí hay un breve resumen de los ideales de la OMB:
Se alienta a las agencias a priorizar el desarrollo y la adopción de la IA para el bien público y cuando la tecnología pueda ser útil para comprender y abordar grandes desafíos sociales, como el uso de la IA para mejorar la accesibilidad de los servicios gubernamentales, reducir la inseguridad alimentaria, abordar la crisis climática, mejorar la salud pública, promover resultados equitativos, proteger la democracia y los derechos humanos y aumentar la competitividad económica de una manera que beneficie a las personas en todo Estados Unidos.
Entre las principales responsabilidades del director de IA está determinar qué usos de la IA podrían afectar la seguridad o los derechos de los ciudadanos estadounidenses. Para ello, evaluarán los impactos de la IA, realizarán pruebas en el mundo real, evaluarán de forma independiente la IA, evaluarán periódicamente los riesgos, capacitarán adecuadamente al personal, brindarán supervisión humana adicional cuando sea necesario y notificarán públicamente cualquier uso de la IA que pueda tener un «impacto significativo». sobre derechos o seguridad», dijo la OMB.
OMB desglosa varios usos de la IA que podrían afectar la seguridad, incluido el control de «funciones críticas para la seguridad» en todo, desde servicios de emergencia hasta mecanismos de seguridad alimentaria y sistemas que controlan reactores nucleares. El uso de la IA para mantener la integridad electoral también podría tener un impacto en la seguridad, al igual que el uso de la IA para mover desechos industriales, controlar los costos del seguro médico o detectar la «presencia de armas peligrosas».
Los usos de la IA que se presume afectan los derechos incluyen la censura del discurso protegido y una amplia gama de esfuerzos de aplicación de la ley, como predecir delitos, dibujar rostros o utilizar lectores de matrículas para rastrear vehículos personales en espacios públicos. Otros usos de la IA que afectan los derechos incluyen «evaluaciones de riesgos relacionados con la inmigración», «replicar la imagen o la voz de una persona sin consentimiento expreso» o detectar estudiantes que hacen trampa.
Los directores de IA decidirán en última instancia si cualquier uso de IA afecta la seguridad o los derechos y deben cumplir con los estándares mínimos de la OMB para el uso responsable de la IA. Una vez que se toma una determinación, los oficiales harán un «seguimiento centralizado» de las determinaciones, informando a la OMB de cualquier cambio importante en las «condiciones o contexto en el que se utiliza la IA». Los funcionarios también convocarán periódicamente «un nuevo Consejo de Directores de IA para coordinar» esfuerzos y compartir innovaciones en todo el gobierno.
A medida que las agencias avanzan en los usos de la IA, que según la Casa Blanca es fundamental para «fortalecer la seguridad de la IA, proteger la privacidad de los estadounidenses, promover la equidad y los derechos civiles, defender a los consumidores y trabajadores, promover la innovación y la competencia, promover el liderazgo estadounidense en todo el mundo». , y más»: los directores de IA se convertirán en figuras públicas responsables de las decisiones tomadas. En esa función, el funcionario debe consultar con el público e incorporar «comentarios de las comunidades afectadas», notificar a los «individuos afectados negativamente» sobre nuevos usos de la IA y mantener opciones para optar por no tomar «decisiones habilitadas por la IA», dijo la OMB.
Sin embargo, la OMB señaló que los directores de IA también tienen el poder de renunciar a las opciones de exclusión «si pueden demostrar que una alternativa humana daría como resultado un servicio que es menos justo (por ejemplo, produce un impacto dispar en las clases protegidas) o si un La exclusión voluntaria impondría dificultades indebidas a la agencia».