
En octubre de 2023, el ex presidente Joe Biden firmó un orden ejecutivo que incluyeron varias medidas para regular AI. En su primer día en el cargo, el presidente Trump lo revocó, reemplazándolo unos días después con su propia orden en IA en los Estados Unidos.
Esta semana, a algunas agencias gubernamentales que aplicaban la regulación de la IA se les dijo que detuviera su trabajo, mientras que el Director del Instituto de Seguridad de AI de EE. UU. (AISI) renunció.
Entonces, ¿qué significa esto prácticamente para el futuro de la regulación de la IA? Esto es lo que necesitas saber.
Lo que realizó la orden de Biden, y no
Además de nombrar varias iniciativas sobre la protección de los derechos civiles, los empleos y la privacidad a medida que acelera la IA, la orden de Biden se centró en el desarrollo y el cumplimiento responsables. Sin embargo, como Tiernan Ray de Zdnet escribió en ese momentola orden podría haber sido más específica, dejando las lagunas disponibles en gran parte de la guía. Aunque requirió que las empresas informaran sobre cualquier esfuerzo de prueba de seguridad, no hizo que los teñir rojos sean un requisito o aclararan ningún estándar para las pruebas. Ray señaló que debido a que la IA como disciplina es muy amplia, regulando que necesita, pero también se ve obstaculizada por la especificidad.
A Informe de Brookings Observó en noviembre que debido a que las agencias federales absorbieron muchas de las directivas en orden de Biden, pueden protegerlas de la derogación de Trump. Pero esa protección parece cada vez menos probable.
La orden de Biden estableció el Instituto de Seguridad de AI de EE. UU. (AISI), que forma parte del Instituto Nacional de Normas y Tecnología (NIST). La AISI realizó pruebas de modelos de IA y trabajó con desarrolladores para mejorar las medidas de seguridad, entre otras iniciativas regulatorias. En agosto, aisi acuerdos firmados con antrópico y OpenAi para colaborar en pruebas e investigaciones de seguridad; En noviembre, estableció un Fuerza de trabajo de pruebas y seguridad nacional.
El miércoles, probablemente debido a los turnos de la administración Trump, la directora de AISI, Elizabeth Kelly, anunció su partida Del Instituto a través de LinkedIn. El destino de ambas iniciativas, y el Instituto en sí, ahora no está claro.
La Oficina de Protección Financiera del Consumidor (CFPB) también llevó a cabo muchos de los objetivos del orden Biden. Por ejemplo, un CFPB de junio de 2023 estudiar En los chatbots en las finanzas del consumidor señalaron que «pueden proporcionar información incorrecta, no proporcionar una resolución significativa de disputas y aumentar los riesgos de privacidad y seguridad». CFPB guía Los prestamistas estados deben proporcionar razones para negarle a alguien crédito, independientemente de si su uso de IA lo hace difícil u opaco o no. En junio de 2024, CFPB aprobado una nueva regla Para garantizar que las evaluaciones algorítmicas del hogar sean justas, precisas y cumplan con la ley de no discriminación.
Esta semana, la administración Trump trabajo detenido en CFPB, señalando que puede estar en el bloque de corte, lo que socavaría severamente la aplicación de estos esfuerzos.
También: Cómo AI puede ayudarlo a administrar sus finanzas (y qué tener en cuenta)
CFPB está a cargo de garantizar que las empresas cumplan con las medidas antidiscriminatorias como la Ley de Igualdad de Oportunidades de Crédito y la Ley de Protección Financiera del Consumidor, y ha señalado que la adopción de IA puede exacerbar la discriminación y el sesgo. En un Agosto de 2024 ComentarioCFPB señaló que se «enfocó en monitorear el mercado de productos y servicios financieros del consumidor para identificar riesgos para los consumidores y garantizar que las empresas que utilizan tecnologías emergentes, incluidas las comercializadas como ‘inteligencia artificial’ o ‘ai’, no violen la protección financiera federal de los consumidores. leyes «. También declaró que estaba monitoreando «el futuro de las finanzas del consumidor» y los «usos novedosos de los datos del consumidor».
«Las empresas deben cumplir con las leyes de protección financiera del consumidor al adoptar la tecnología emergente», continúa el comentario. No está claro qué cuerpo aplicaría esto si CFPB cambia radicalmente o deja de existir bajo un nuevo liderazgo.
Cómo se compara la orden de Trump
El 23 de enero, el presidente Trump firmó su propia orden ejecutiva en IA. En términos de política, la directiva de una sola línea dice solo que Estados Unidos debe «mantener y mejorar el dominio global de IA de Estados Unidos para promover el florecimiento humano, la competitividad económica y la seguridad nacional».
A diferencia del orden de Biden, los términos como «seguridad», «consumidor», «datos» y «privacidad» no aparecen en absoluto. No hay menciones de si la administración Trump planea priorizar la protección de las protecciones individuales o abordar el sesgo frente al desarrollo de la IA. En cambio, se centra en eliminar lo que la Casa Blanca llamado «Requisitos innecesariamente onerosos para las empresas que desarrollan y desplegan IA», aparentemente centrándose en el avance de la industria.
También: Si no está trabajando en el cifrado de seguridad cuántica, ya es demasiado tarde
La orden continúa para dirigir a los funcionarios a encontrar y eliminar «inconsistencias» con ella en las agencias gubernamentales, es decir, restos de la orden de Biden que se han llevado a cabo o todavía se están llevando a cabo.
En marzo de 2024, la administración Biden liberado Un memorando adicional que indica a las agencias gubernamentales que usan IA tendrían que demostrar que esas herramientas no eran perjudiciales para el público. Al igual que otras órdenes ejecutivas de la era de Biden y directivas relacionadas, enfatizó el despliegue responsable, centrando el impacto de la IA en los ciudadanos individuales. La orden ejecutiva de Trump señala que revisará (y probablemente desmantelará) gran parte de este memorando antes del 24 de marzo.
Esto es especialmente preocupante dado que la semana pasada, Operai lanzado Chatgpt Govuna versión del chatbot de OpenAI optimizado para la seguridad y los sistemas gubernamentales. No está claro cuándo las agencias gubernamentales tendrán acceso al chatbot o si habrá parámetros sobre cómo se puede usar, aunque OpenAI dice que los trabajadores del gobierno ya usan chatgpt. Si el Memo Biden, que desde entonces se ha eliminado del sitio web de la Casa Blanca, es difícil decir si el Gobierno de ChatGPT se mantendrá en cualquier estándar similar que explique el daño.
Plan de acción de AI de Trump
La orden ejecutiva de Trump le dio a su personal 180 días para crear una política de IA, lo que significa que su plazo para materializarse es el 22 de julio. El miércoles, la administración Trump sacó un Llame para comentarios públicos para informar ese plan de acción.
La administración Trump está interrumpiendo AISI y CFPB, dos organismos clave que llevan a cabo las protecciones de Biden, sin una política formal establecida para atrapar consecuencias. Eso deja la supervisión y el cumplimiento de la IA en un estado turbio durante al menos los próximos seis meses (milenios en plazos de desarrollo de IA, dada la tasa a la que evoluciona la tecnología), todo mientras los gigantes tecnológicos se convierten en pares Más arraigado en asociaciones e iniciativas gubernamentales como el Proyecto Stargate.
También: Cómo la IA transformará la ciberseguridad en 2025, y el delito cibernético sobrealimentado
Teniendo en cuenta que la regulación global de la IA todavía está muy por detrás de la tasa de avance, tal vez era mejor tener algo en lugar de nada.
«Si bien la orden ejecutiva de AI de Biden puede haber sido en su mayoría simbólica, su reversión indica la voluntad de la administración Trump de pasar por alto los peligros potenciales de la IA», dijo Peter Slattery, un investigador del equipo de Futuretech del MIT que dirigió su Repositorio de riesgos proyecto. «Esto podría ser miope: una falla de alto perfil, lo que podríamos llamar un» momento de Chernobyl «, podría provocar una crisis de confianza pública, frenando el progreso que la administración espera acelerar».
«No queremos una IA avanzada que sea insegura, no confiable o poco confiable, nadie está mejor en ese escenario», agregó.