A medida que sigue creciendo el uso de modelos de IA cada vez más potentes, garantizar la confianza y la responsabilidad debe estar en la parte superior de la lista de objetivos, a la par de cualquiera de los beneficios potenciales de la IA. No sucederá de la noche a la mañana ni será el resultado de un solo paso, como un mejor código, regulaciones gubernamentales o compromisos sinceros de los desarrolladores de IA. Requerirá un cambio cultural sustancial a lo largo del tiempo que involucre a personas, procesos y tecnología, y requerirá colaboración y cooperación generalizadas entre desarrolladores y usuarios.
A pesar de las dudas sobre las deficiencias de la IA, los líderes empresariales no pueden ignorar sus beneficios. Gartner descubrió que el 79% de los estrategas corporativos cree que su éxito en los próximos dos años dependerá en gran medida del uso de datos e inteligencia artificial. El uso proliferativo de la IA es inevitable. El aumento de IA generativa en particular ha creado una mentalidad de fiebre del oro nacida del miedo a estar en desventaja competitiva, lo que ha resultado en un ruido significativo y una posible imprudencia a medida que las empresas se lanzan al círculo de las ofertas de IA. Para los desarrolladores y líderes tecnológicos que están considerando agregar IA a su ecosistema, existen varios obstáculos que vale la pena examinar antes de elegir una solución. Por suerte, los llamamientos a un uso responsable también van en aumento.
Un gran poder conlleva un gran riesgo
A pesar de su valor, la IA comete errores. Dado que los líderes de TI solo automatizan aproximadamente 15% del 50% de actividades de planificación y ejecución estratégicas que podrían automatizarse parcial o totalmente, lo que deja una enorme franja de procesos de negocio disponibles para la implementación de la IA. Si incluso un área de la IA de la empresa se enseña con datos de entrenamiento desordenados, es probable que ese segmento muestre sesgos o alucinaciones. Si bien problemas como los sesgos y las alucinaciones están bien documentados, incluso los procesos aparentemente benignos automatizados con modelos de IA pueden erosionar la rentabilidad debido a imprecisiones, visibilidad insuficiente de variables influyentes o datos de entrenamiento poco representativos.
Otro problema de la IA que se discute a menudo es la falta de transparencia en el funcionamiento interno de los modelos de IA, lo que resulta en soluciones de «caja negra» que dejan a los analistas incapaces de entender cómo se llegó a una conclusión. Según McKinsey, los esfuerzos por desarrollar IA explicable todavía no han dado muchos frutos. McKinsey También reveló que las empresas que obtienen los mayores retornos finales de la IA (aquellas que atribuyen al menos el 20% de los ingresos antes de impuestos a su uso de la IA) tienen más probabilidades que otras de seguir las mejores prácticas que permitan la explicabilidad. Dicho de otra manera: cuanto mayores sean los riesgos financieros, más probable será que una empresa busque transparencia en su modelado de IA. El enfoque de SAS para las tarjetas modelo ofrece una solución a este problema, permitiendo a los ejecutivos y desarrolladores evaluar el estado del modelo.
Los gobiernos de todo el mundo también están buscando formas de regular el desarrollo y el uso de la IA. La Casa Blanca emitió un Orden ejecutiva En octubre pasado, identificó estándares de seguridad para el desarrollo de la IA y solicitó compromisos voluntarios de las principales empresas de IA para perseguir el desarrollo responsable de la IA. También ha emitido un Anteproyecto para una Declaración de Derechos de la IA destinado a proteger la privacidad y otros derechos civiles. La Ley de IA de la Unión Europea superó recientemente su último obstáculo cuando los miembros finalizaron el texto después de acordar unánimemente las disposiciones. El TENGO actuar es uno de los primeros intentos integrales de regular la IA. Además, SAS fue una de las más de 200 organizaciones que se unieron al Consorcio del Instituto de Seguridad de Inteligencia Artificial del Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio, lanzado en febrero. El consorcio apoya el desarrollo y la implementación de una IA segura y confiable.
Sin embargo, las regulaciones por sí solas no serán suficientes porque a menudo van a la zaga del rápido desarrollo de nuevas tecnologías de inteligencia artificial. Las regulaciones pueden proporcionar un marco general y barreras de seguridad para el desarrollo y uso de la IA, pero mantener ese marco requerirá un compromiso y una cooperación generalizados entre los desarrolladores y usuarios de la IA. Mientras tanto, gobiernos como el de Estados Unidos también pueden aprovechar su considerable poder adquisitivo para establecer estándares y expectativas de facto para el comportamiento ético.
El uso responsable de la IA se construye desde el grupo hacia arriba
Garantizar el uso ético de la IA comienza antes de que se implemente un modelo; de hecho, incluso antes de que se escriba una línea de código. Un enfoque en la ética debe estar presente desde el momento en que se concibe una idea y persistir a lo largo del proceso de investigación y desarrollo, pruebas e implementación, y debe incluir un monitoreo integral una vez que se implementan los modelos. La ética debería ser tan esencial para la IA como los datos de alta calidad.
Puede comenzar con educar a las organizaciones y a sus líderes tecnológicos sobre prácticas responsables de IA. Muchos de los resultados negativos descritos aquí surgen simplemente de una falta de conciencia de los riesgos involucrados. Si los profesionales de TI emplearan regularmente las técnicas de investigación ética, el daño no intencionado que causan algunos modelos podría reducirse drásticamente.
También es importante elevar el nivel de alfabetización en IA entre los consumidores. El público debe tener una comprensión básica de qué es la IA y cómo se utilizan los datos, así como una comprensión tanto de las oportunidades como de los riesgos, aunque es trabajo del liderazgo tecnológico garantizar que se practique la ética de la IA.
Cómo SAS Viya pone en práctica las prácticas éticas
Para ayudar a garantizar que la IA funcione de manera confiable y ética, las empresas deben considerar asociarse con organizaciones de datos e IA que prioricen tanto la innovación como la transparencia. En el caso de SAS, nuestra SAS Viya El ecosistema es una plataforma de análisis e inteligencia artificial de alto rendimiento nativa de la nube que se integra fácilmente con lenguajes de código abierto y brinda a los usuarios una código bajo, sin código interfaz para trabajar. SAS Viya puede crear modelos más rápido y escalar más, convirtiendo mil millones de puntos de datos en un punto de vista claro y explicable.
¿Cómo resuelve SAS Viya algunos de los problemas que enfrenta la implementación de IA? Primero, la plataforma está guiada por el compromiso de SAS de innovación responsable, lo que también se traduce en sus ofertas. En 2019, SAS anunció una inversión de mil millones de dólares en IA, una cantidad significativa de la cual se canalizó para hacer que Viya sea la nube primero y agregar procesamiento natural del lenguaje y visión por computador a la plataforma. Estas adiciones ayudan a las empresas a analizar, organizar y analizar sus datos.
Debido a que construir un modelo de IA confiable requiere un conjunto sólido de datos de entrenamiento, SAS Viya está equipado con sólidas capacidades de procesamiento, preparación, integración, gobernanza, visualización y generación de informes de datos. El desarrollo de productos está guiado por la Práctica de Ética de Datos (DEP) de SAS, un equipo multifuncional que coordina los esfuerzos para promover los ideales del desarrollo ético, incluida la centralidad humana y la equidad, en sistemas basados en datos. El DEP incluye científicos de datos y especialistas en desarrollo empresarial que trabajan con desarrolladores, evaluando nuevas funciones y consultando sobre soluciones que pueden implicar un mayor riesgo, como las de servicios financieros, atención médica y gobierno. Además de su base ética, Viya está diseñada para mapear verticales, con la usabilidad y la transparencia a la vanguardia del diseño.
SAS a través de capacidades de plataforma
La plataforma Viya incluye capacidades técnicas diseñadas para garantizar una IA confiable, incluida la detección de sesgos, la explicabilidad, la auditabilidad de decisiones, el monitoreo de modelos, la gobernanza y la rendición de cuentas. El sesgo, por ejemplo, ha demostrado ser insidioso en los programas de IA, así como en una serie de políticas públicas, reflejando y perpetuando los sesgos y prejuicios de la sociedad humana. En la IA, puede sesgar los resultados, favoreciendo a un grupo sobre otro y generando resultados injustos. Pero entrenar modelos de IA con datos mejores y más completos puede ayudar a eliminar el sesgo, y SAS Viya funciona mejor con conjuntos de datos complejos.
SAS Viya utiliza econometría y pronósticos inteligentes, lo que permite a los líderes de TI modelar y simular escenarios comerciales complejos basados en grandes cantidades de datos observacionales o imputados. Para verificar la calidad de los datos y los resultados del mundo real de un determinado modelo de IA, un ejecutivo de tecnología solo necesita ejecutar el software de pronóstico en SAS Viya para ver los resultados. Otra salvaguarda dentro de la plataforma son sus funciones de toma de decisiones, que pueden ayudar a los profesionales de TI a reaccionar en tiempo real a los resultados del modelo. Utilizando procesos de toma de decisiones creados con una GUI de arrastrar y soltar o código escrito, los desarrolladores pueden crear repositorios centralizados de datos, modelos y reglas comerciales para guiar la precisión y garantizar la transparencia. Las reglas comerciales personalizadas, escritas por una mano humana en SAS Viya, conducen a una implementación más rápida y a la confianza en la integridad de las decisiones operativas basadas en modelos.
Algunos ejemplos de cómo se ha utilizado Viya para mejorar las operaciones de las organizaciones:
- El Centro para Vecindarios de la Ciudad de Nueva York y SAS se asociaron para analizar las desigualdades en los datos de vivienda de la ciudad y revelaron disparidades en los valores de las viviendas, los préstamos para la compra y los informes de violaciones de mantenimiento que ponen a las personas de color en desventaja.
- SAS y el Centro Médico de la Universidad de Ámsterdam capacitaron a un SAS Viya aprendizaje profundo modelo para identificar instantáneamente las características del tumor y compartir información vital con los médicos para acelerar los diagnósticos y ayudar a determinar las mejores estrategias de tratamiento.
- La Virginia Commonwealth University está utilizando Viya para automatizar procesos manuales de visualización de datos, análisis y gestión de datos que requieren mucho tiempo para acelerar la investigación sobre tasas más altas de mortalidad por cáncer entre las poblaciones vulnerables y de bajos ingresos.
La IA tiene el potencial de transformar la economía y la fuerza laboral global. Puede automatizar tareas rutinarias, mejorar la productividad y la eficiencia y liberar a los humanos para que realicen trabajos con fines más elevados. La IA ha ayudado a lograr avances en la atención médica, las ciencias biológicas, la agricultura y otras áreas de investigación. Sólo los modelos de IA más confiables, aquellos que priorizan la transparencia y la rendición de cuentas, serán responsables de este tipo de avances en el futuro. No es suficiente que una plataforma como Viya tenga una IA responsable: debe abarcar a toda la industria, o todos fracasaremos.
Una IA confiable requiere un enfoque unificado
A juzgar por las proyecciones más extremas de su impacto potencial, la IA representa o el amanecer de una nueva era o el fin del mundo. La realidad está en el medio: la IA plantea beneficios revolucionarios pero también riesgos importantes. La clave para obtener los beneficios y al mismo tiempo minimizar los riesgos es mediante un desarrollo y un uso responsables y éticos.
Requerirá equipos multifuncionales dentro de la industria e iniciativas intersectoriales que involucren a la industria, el gobierno, el mundo académico y el público. Significará involucrar a personas no tecnológicas que comprendan los riesgos para las poblaciones vulnerables. Significará utilizar tecnologías como SAS Viya, que ayuda a las organizaciones a alcanzar sus objetivos de IA responsable. Requiere regulaciones bien pensadas que establezcan barreras de seguridad consistentes, protejan a los ciudadanos y estimulen la innovación.
Pero, sobre todo, una IA responsable y confiable requiere que busquemos avances en la IA de manera ética, con una visión compartida de reducir el daño y ayudar a las personas a prosperar.
Reggie Townsend es vicepresidente de Práctica de Ética de Datos en SAS.
—
Generative AI Insights proporciona un lugar para que los líderes tecnológicos, incluidos proveedores y otros contribuyentes externos, exploren y discutan los desafíos y oportunidades de la inteligencia artificial generativa. La selección es amplia, desde análisis profundos de tecnología hasta estudios de casos y opiniones de expertos, pero también subjetiva, basada en nuestro juicio sobre qué temas y tratamientos servirán mejor a la audiencia técnicamente sofisticada de InfoWorld. InfoWorld no acepta garantías de marketing para su publicación y se reserva el derecho de editar todo el contenido aportado. Contacto doug_dineley@foundryco.com.
Copyright © 2024 IDG Communications, Inc.