Ahora más que nunca se necesita una IA responsable (RAI). Es la clave para impulsar todo, desde la confianza y la adopción hasta la gestión LLM alucinaciones y eliminación de tóxicos. IA generativa contenido. Con una RAI eficaz, las empresas pueden innovar más rápido, transformar más partes del negocio, cumplir con la futura regulación de la IA y evitar multas, daños a la reputación y estancamiento competitivo.
Desafortunadamente, reina la confusión sobre qué es realmente la RAI, qué ofrece y cómo lograrlo, con efectos potencialmente catastróficos. Si se hacen mal, las iniciativas de la RAI obstaculizan la innovación, creando obstáculos que añaden retrasos y costos sin mejorar realmente la seguridad. Abundan los mitos bien intencionados, pero equivocados, sobre la definición y el propósito mismos de la RAI. Las organizaciones deben romper estos mitos si queremos convertir a la RAI en una fuerza para la creación de valor impulsada por la IA, en lugar de una pérdida de tiempo costosa e ineficaz.
¿Cuáles son entonces los mitos más perniciosos de la RAI? ¿Y cuál es la mejor manera de definir RAI para encaminar nuestras iniciativas por un camino sostenible hacia el éxito? Permítanme compartir mis pensamientos.
Mito 1: La IA responsable tiene que ver con principios
Vaya a cualquier gigante tecnológico y encontrará los principios de la RAI, como explicabilidad, equidad, privacidad, inclusión y transparencia. Son tan frecuentes que se le perdonaría pensar que los principios son el núcleo de la RAI. Después de todo, estos suenan exactamente como los tipos de principios que esperaríamos de un ser humano responsable, por lo que seguramente son clave para garantizar una IA responsable, ¿verdad?
Equivocado. Todas las organizaciones ya tienen principios. Generalmente son exactamente los mismos principios que se promulgan para la RAI. Después de todo, ¿cuántas organizaciones dirían que están en contra de la justicia, la transparencia y la inclusión? Y, si lo fueran, ¿podría realmente sostener un conjunto de principios para la IA y otro conjunto de principios diferente para el resto de la organización?
Además, los principios no son más eficaces para generar confianza en la IA que para las personas y las organizaciones. ¿Confía en que una aerolínea con descuento lo llevará de manera segura a su destino debido a sus principios? ¿O confía en ellos por los pilotos, técnicos y controladores de tráfico aéreo capacitados que siguen procesos rigurosamente aplicados y utilizan equipos cuidadosamente probados e inspeccionados periódicamente?
Al igual que los viajes aéreos, son las personas, los procesos y la tecnología los que permiten y hacen cumplir sus principios los que están en el corazón de RAI. Lo más probable es que ya tenga los principios correctos. El desafío es poner esos principios en práctica.
Mito 2: La IA responsable tiene que ver con la ética
Sin duda, la RAI trata de utilizar la IA de forma ética, asegurándose de que los modelos sean justos y no causen discriminación perjudicial, ¿verdad? Sí, pero también se trata de mucho más.
Solo un pequeño subconjunto de casos de uso de IA realmente tienen consideraciones éticas y de justicia, como modelos que se utilizan para la calificación crediticia, que analizan currículums o que podrían provocar pérdidas de empleo. Naturalmente, necesitamos a RAI para garantizar que estos casos de uso se aborden de manera responsable, pero también necesitamos a RAI para garantizar que todas nuestras otras soluciones de IA se desarrollen y utilicen de forma segura y confiable, y cumplan con los requisitos financieros y de rendimiento de la organización.
Las mismas herramientas que utiliza para proporcionar explicabilidad, comprobar si hay sesgos y garantizar la privacidad son exactamente las mismas que utiliza para garantizar la precisión, la confiabilidad y la protección de los datos. RAI ayuda a garantizar que la IA se utilice de forma ética cuando hay consideraciones de equidad en juego, pero también es igualmente fundamental para cualquier otro caso de uso de la IA.
Mito 3: La IA responsable tiene que ver con la explicabilidad
Es un estribillo común que necesitamos explicabilidad, también conocida como interpretabilidad, para poder confiar en la IA y utilizarla de manera responsable. Nosotros no. La explicabilidad no es más necesaria para confiar en la IA que saber cómo funciona un avión para confiar en los viajes aéreos.
Las decisiones humanas son un buen ejemplo. Casi siempre podemos explicar nuestras decisiones, pero hay abundante evidencia que estas son historias ex post que inventamos y que tienen poco que ver con los impulsores reales de nuestro comportamiento en la toma de decisiones.
En cambio, Explicabilidad de la IA(el uso de modelos de “caja blanca” que puedan entenderse fácilmente y métodos como LIME y ShAP) es importante en gran medida para probar que sus modelos funcionan correctamente. Ayudan a identificar correlaciones espurias y posibles discriminaciones injustas. En casos de uso simples, donde los patrones son fáciles de detectar y explicar, pueden ser un atajo hacia una mayor confianza. Sin embargo, si esos patrones son lo suficientemente complejos, cualquier explicación, en el mejor de los casos, proporcionará indicaciones de cómo se tomó una decisión y, en el peor, será un completo galimatías.
En resumen, es bueno tener explicabilidad, pero a menudo es imposible lograrla de manera que impulse significativamente la confianza entre las partes interesadas. RAI trata de garantizar la confianza para todos los casos de uso de la IA, lo que significa brindar confianza a través de las personas, los procesos y la tecnología (especialmente las plataformas) utilizados para desarrollarlos y ponerlos en funcionamiento.
La IA responsable consiste en gestionar el riesgo
Al fin y al cabo, RAI es la práctica de gestionar el riesgo al desarrollar y utilizar la IA y aprendizaje automático modelos. Esto implica gestionar riesgos comerciales (como modelos de bajo rendimiento o poco confiables), riesgos legales (como multas regulatorias y demandas de clientes o empleados) e incluso riesgos sociales (como discriminación o daños ambientales).
La forma en que gestionamos ese riesgo es a través de una estrategia de múltiples capas que desarrolla capacidades RAI en forma de personas, procesos y tecnología. En términos de personas, se trata de empoderar a los líderes responsables de la RAI (por ejemplo, directores de análisis de datos, directores de IA, jefes de ciencia de datos, vicepresidentes de ML) y capacitar a los profesionales y usuarios para desarrollar, gestionar y utilizar la IA de manera responsable. . En términos de proceso, se trata de gobernar y controlar el ciclo de vida de un extremo a otro, desde el acceso a los datos y la capacitación del modelo hasta la implementación, el monitoreo y el reentrenamiento del modelo. Y en términos de tecnología, las plataformas son especialmente importantes porque apoyan y habilitan a las personas y los procesos a escala. democratizan el acceso a los métodos RAI (por ejemplo, para la explicabilidad, la detección de sesgos, la mitigación de sesgos, la evaluación de la equidad y el monitoreo de derivas) y refuerzan la gobernanza de los artefactos de IA, rastrean el linaje, automatizan la documentación, organizan flujos de trabajo de aprobación, protegen los datos y una miríada de características para agilizar los procesos RAI.
Estas son las capacidades que los equipos avanzados de IA en industrias fuertemente reguladas, como la farmacéutica, los servicios financieros y los seguros, ya han estado construyendo y generando valor. Son las capacidades que generan confianza en toda la IA, o específicamente en la IA generativa, a escala, con los beneficios de una implementación más rápida, una mayor adopción, un mejor rendimiento y una mayor confiabilidad. Ayudan a preparar sus iniciativas de IA para el futuro a partir de la próxima regulación sobre IA y, sobre todo, a hacernos a todos más seguros. La IA responsable puede ser la clave para desbloquear el valor de la IA a escala, pero primero necesitarás derribar algunos mitos.
Kjell Carlsson es jefe de estrategia de IA en Laboratorio de datos de dominó.
—
Generative AI Insights proporciona un lugar para que los líderes tecnológicos, incluidos proveedores y otros contribuyentes externos, exploren y discutan los desafíos y oportunidades de la inteligencia artificial generativa. La selección es amplia, desde análisis profundos de tecnología hasta estudios de casos y opiniones de expertos, pero también subjetiva, basada en nuestro juicio sobre qué temas y tratamientos servirán mejor a la audiencia técnicamente sofisticada de InfoWorld. InfoWorld no acepta garantías de marketing para su publicación y se reserva el derecho de editar todo el contenido aportado. Contacto doug_dineley@foundryco.com.
Copyright © 2024 IDG Communications, Inc.