El director de la NSF también señaló que su organización, la agencia líder de NAIRR, lanzó el piloto apenas 90 días después de la publicación de Orden ejecutiva 14110 de la Casa Blanca pidiendo el desarrollo y uso seguro y confiable de tecnologías de IA.
Panchanathan también sugirió que la variedad de socios que trabajan juntos en el piloto de NAIRR subraya la urgencia de desarrollar el piloto para el futuro de la IA en los Estados Unidos. “Al invertir en investigación de IA a través del piloto NAIRR, Estados Unidos libera descubrimiento e impacto y refuerza su competitividad global. Para seguir liderando la investigación y el desarrollo de la IA, debemos crear oportunidades en todo el país para promover la innovación en la IA y fortalecer las oportunidades educativas, empoderando a la nación para dar forma a los estándares internacionales e impulsando el crecimiento económico”.
La sesión informativa embargada con los periodistas también incluyó a Katie Antypas, directora de la Oficina de Ciberinfraestructura Avanzada de NSF; Michael Littman, director de la División de Sistemas Inteligentes e Información de NSF; y Tess deBlanc-Knowles, asistente especial del director de IA de la NSF.
Los primeros objetivos de NSF y sus diversos socios incluirán determinar el diseño de la propia NAIRR. Inicialmente, NAIRR proporcionará potencia informática desde supercomputadoras proporcionadas por NSF y el Departamento de Energía, pero los socios contribuirán con recursos con una variedad de interfaces que se integrarán en los próximos meses. En el momento de la rueda de prensa, estaban involucrados 25 socios, pero se espera que ese número crezca.
Aunque la IA confiable es un enfoque principal, Littman señaló que la confiabilidad es un concepto relativamente nuevo para los sistemas de IA y que el significado de «confiable» en ese contexto aún se está debatiendo. “Creo que la razón por la que esto es importante es que existe una brecha entre la forma en que funcionan los sistemas de aprendizaje automático de forma inmediata y la forma en que queremos usarlos en casos de uso relevantes para la sociedad. Estos modelos, o estos sistemas, estos algoritmos, están realmente entrenados para imitar los datos con los que están entrenados, pero eso no es bueno cuando los datos están cargados de sesgos, o información privada, errores, lenguaje socialmente inaceptable y muchas otras cosas. ”, dijo Littman. Por lo tanto, lograr que los sistemas hagan lo que realmente queremos que hagan requiere nuevos avances en cómo se entrenan, cómo se recopilan los datos, cómo se examinan los datos y muchas otras cosas”.
Uno de los primeros pasos será un taller conjunto con personal del Instituto Nacional de Estándares y Tecnología (NIST) para «pensar en las formas en que la NAIRR puede apoyar el avance de una IA confiable, incorporando las mejores prácticas para la gobernanza de la IA». informó deBlanc-Knowles.