La Dra. Radha Iyenghar Plumb, coautora de un artículo de 2010 que vincula las víctimas civiles en Afganistán con la posterior violencia insurgente, prestó juramento el 9 de abril de 2024 como Directora de Inteligencia Digital y Artificial (CDAO) del Departamento de Defensa (DoD), cargo que debería resultar clave para la implementación de políticas estadounidenses para sistemas de armas autónomos y sistemas autónomos en la cadena de destrucción.
Iyenghar Plumb se desempeñó recientemente como Subsecretario Adjunto de Defensa para Adquisiciones y Mantenimiento del Departamento de Defensa. Ha ocupado diversos puestos de alto nivel en la industria, incluido el de directora de investigación e información para la confianza y la seguridad en Google, jefa global de análisis de políticas de Facebook y economista senior de RAND Corporation, así como puestos académicos en la Escuela de Londres. de Economía como profesor asistente y en la Universidad de Harvard como becario de políticas sanitarias Robert Wood Johnson.
Iyenghar Plumb es coautor de un hoja de trabajo en octubre de 2010, que encontró pruebas contundentes de que en Afganistán “la exposición local a las víctimas civiles causadas por fuerzas internacionales conduce a un aumento de la violencia insurgente en el largo plazo”, denominado por los autores como efecto de ‘venganza’. Sin embargo, no se encontró evidencia de una reacción similar ante las víctimas civiles en Irak. El documento concluía que “reducir las víctimas civiles no está necesariamente en conflicto con el objetivo de proteger las vidas de las fuerzas internacionales”.
En su cargo de Subsecretario Adjunto de Defensa para Adquisiciones y Mantenimiento, Iyenghar Plumb construyó la base industrial de seguridad y la cadena de suministro de Estados Unidos. Como nuevo CDAO, Iyenghar Plumb tendrá la tarea de integrar y optimizar las capacidades de inteligencia artificial en todo el Departamento de Defensa, así como acelerar la adopción de datos y análisis por parte de los departamentos.
en un discusión abierta Con el Centro de Estudios Estratégicos e Internacionales en septiembre de 2023, Iyenghar Plumb describió la rápida fusión de la inteligencia artificial y la tecnología militar de China como un desarrollo preocupante, y el desafío que representa promover los intereses estatales de China en línea con los valores autocráticos. Iyenghar Plumb continuó promocionando la ventaja económica de Estados Unidos como un duro contraataque a estos esfuerzos, con soluciones derivadas de la rápida ampliación de las tecnologías de la información, ayudadas por programas gubernamentales para reducir los puntos conflictivos en el desarrollo.
El Directiva del Departamento de Defensa 3000.09 sobre sistemas letales de armas autónomas (LAWS), publicado por primera vez en noviembre de 2012 y actualizado por última vez en enero de 2023, tiene como objetivo garantizar que los comandantes y operadores puedan ejercer niveles apropiados de juicio humano sobre el uso de la fuerza. Como reflejo de los rápidos avances en la tecnología autónoma y la necesidad de responsabilidad en la gestión de este avance, los últimos cambios en DODD 3000.09 aclaran qué sistemas de armas autónomas requieren una revisión superior adicional antes del desarrollo formal y antes de su puesta en servicio, con el Director Digital y de IA como parte del Grupo de Trabajo del Sistema de Armas Autónomas, establecido por DODD 3000.09, para apoyar y asesorar el proceso de revisión de alto nivel.
Acceda a los perfiles de empresa más completos del mercado, impulsados por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.
Perfil de la empresa: muestra gratuita
Su correo electrónico de descarga llegará en breve
Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por eso le ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.
Por GlobalData
Discusiones internacionales sobre el uso de LAWS, 30 países y 165 organizaciones no gubernamentales han pedido una prohibición preventiva de los LAWS debido a preocupaciones éticas, según un informe de febrero de 2024. Documento de investigación del Congreso, muchos de ellos citan preocupaciones éticas en torno al uso de LAWS y los daños colaterales. Muchos ven los LAWS como incompatibles con el reconocimiento de la rendición de cuentas y dicen que los sistemas conllevan riesgos operativos, además de no tener en cuenta consideraciones de proporcionalidad.
Actualmente, el gobierno de EE. UU. no está a favor de una prohibición de los LAWS, y en un libro blanco de 2018 argumentó que los LAWS podrían resultar beneficiosos para las causas humanitarias al mejorar la precisión de los ataques con armas. Sin embargo, como parte del proceso de revisión de armas, cualquier cambio realizado en los sistemas, como resultado del aprendizaje automático o de otro tipo, debe dar lugar a pruebas y evaluaciones relevantes para garantizar que se conserven las características de seguridad y la capacidad de operar según lo previsto.