IA generativa entró en la conciencia global con fuerza a finales de 2022 (pista: ChatGPT), pero lograr que funcione en la empresa ha representado poco más que una serie de tropiezos. El uso de la IA en la sombra en la empresa está por las nubes, ya que los empleados están convirtiendo las herramientas de chat de IA en compañeros de tareas del día a día. Pero en el caso de los flujos de trabajo intensivos en conocimiento que son fundamentales para la misión de una organización, la IA generativa aún tiene que cumplir su elevada promesa de transformar la forma en que trabajamos.
Sin embargo, no apueste a que esta depresión de desilusión dure mucho tiempo. un proceso llamado generación de recuperación aumentada (RAG) está desbloqueando tipos de casos de uso de IA generativa empresarial que antes no eran viables. Empresas como OpenAI, Microsoft, Meta, Google y Amazon, junto con un número creciente de nuevas empresas de IA, han estado implementando agresivamente soluciones basadas en RAG centradas en la empresa.
RAG aporta a la IA generativa lo único que la estaba frenando en la empresa: un modelo de recuperación de información. Ahora, las herramientas de IA generativa tienen una forma de acceder a datos relevantes que son externos a los datos que modelo de lenguaje grande (LLM) fue capacitado y pueden generar resultados basados en esa información. Esta mejora parece simple, pero es la clave que libera el potencial de las herramientas de IA generativa para casos de uso empresarial.
Para entender por qué, veamos primero los problemas que ocurren cuando la IA generativa carece de la capacidad de acceder a información fuera de sus datos de entrenamiento.
Las limitaciones de los modelos lingüísticos.
Las herramientas de inteligencia artificial generativa como ChatGPT funcionan con grandes modelos de lenguaje entrenados con grandes cantidades de datos de texto, como artículos, libros e información en línea, para aprender los patrones de lenguaje que necesita para generar respuestas coherentes. Sin embargo, aunque los datos de entrenamiento son masivos, son solo una instantánea de la información del mundo capturada en un momento específico: de alcance limitado y sin datos específicos de un dominio o actualizados.
Un LLM genera nueva información basada en los patrones lingüísticos que aprendió a partir de sus datos de capacitación y, en el proceso, tiende a inventar hechos que de otro modo parecen totalmente creíbles. Este es el problema de las “alucinaciones” de la IA generativa. No es un factor decisivo para las personas que utilizan herramientas de inteligencia artificial generativa para ayudarlos con tareas casuales a lo largo del día, pero para los flujos de trabajo empresariales donde la precisión no es negociable, el problema de las alucinaciones ha sido un obstáculo.
Un analista de capital privado no puede confiar en una herramienta de inteligencia artificial que fabrica entidades de la cadena de suministro. Un analista jurídico no puede confiar en una herramienta de inteligencia artificial que inventa demandas. Y un profesional médico no puede confiar en una herramienta de inteligencia artificial que imagina interacciones entre medicamentos. La herramienta no proporciona ninguna forma de verificar la precisión del resultado o el uso en casos de uso de cumplimiento porque no cita las fuentes subyacentes: genera resultados basados en patrones de lenguaje.
Pero no son sólo las alucinaciones las que han frustrado el éxito de la IA generativa en la empresa. Los datos de capacitación de LLM son ricos en información general, pero carecen de datos propietarios o específicos del dominio, sin los cuales la herramienta es de poca utilidad para casos de uso empresarial intensivos en conocimiento. Los datos de proveedores que el analista de capital privado necesita no están ahí. Tampoco lo es la información de la demanda para el analista legal ni los datos de interacciones medicamentosas para el médico.
Las aplicaciones empresariales de IA suelen exigir acceso a información actual, y ésta es otra área que los LLM por sí solos no pueden ofrecer. Sus datos de entrenamiento son estáticos, con una fecha límite que suele ser hace muchos meses. Incluso si el sistema tuviera acceso al tipo de datos de proveedores que el analista de capital privado necesita, no sería de mucho valor para ella si le faltan datos de los últimos ocho meses. El analista jurídico y el médico están en el mismo barco: incluso si la herramienta de inteligencia artificial tiene acceso a datos de un dominio específico, es de poca utilidad si no está actualizada.
Requisitos empresariales para la IA generativa
Al exponer las deficiencias de la IA generativa en la empresa, hemos definido sus requisitos. Ellos deben ser:
- Integral y oportuno, al incluir todos los datos relevantes y actualizados específicos del dominio.
- Confiable y transparente, citando todas las fuentes utilizadas en el resultado.
- Creíble y preciso, al basar los resultados en conjuntos de datos específicos y confiables, no en datos de capacitación de LLM.
RAG hace posible que las herramientas de IA generativa cumplan con estos requisitos. Al integrar modelos basados en recuperación con modelos generativos, los sistemas basados en RAG pueden diseñarse para abordar flujos de trabajo intensivos en conocimiento donde es necesario extraer resúmenes e información precisos de grandes volúmenes de datos imperfectos y no estructurados y presentarlos de forma clara y precisa en lenguaje natural.
Hay cuatro pasos básicos para RAG:
- Vectorización. Transforme información relevante de fuentes confiables convirtiendo texto en un código especial que el sistema pueda usar para la categorización.
- Recuperación. Utilice una representación matemática para hacer coincidir su consulta con códigos similares contenidos en fuentes de información confiables.
- Clasificación. Elija la información más útil para usted considerando lo que preguntó, quién es y la fuente de la información.
- Generación. Combine las partes más relevantes de esos documentos con su pregunta y envíelas a un LLM para producir el resultado.
A diferencia de una herramienta de IA generativa que se basa únicamente en un LLM para producir una respuesta, las herramientas de IA generativa basadas en RAG pueden producir resultados mucho más precisos, completos y relevantes siempre que los datos subyacentes se obtengan y examinen adecuadamente. En estos casos, los usuarios empresariales pueden confiar en el resultado y utilizarlo para flujos de trabajo críticos.
La capacidad de RAG para recuperar información nueva y actualizada y citar fuentes es tan crítica que OpenAI comenzó a implementar la funcionalidad RAG en ChatGPT. Las herramientas de búsqueda más nuevas, como Perplexity AI, están causando sensación porque las respuestas que generan citan sus fuentes. Sin embargo, estas herramientas siguen siendo herramientas de “conocimiento general” que requieren tiempo e inversión para que funcionen en casos de uso empresarial de dominios específicos.
Prepararlos para la empresa significa obtener y examinar los datos subyacentes desde donde se obtiene la información para que sean específicos del dominio, personalizar la recuperación, clasificar la recuperación para devolver los documentos más relevantes para el caso de uso y ajustar el LLM utilizado para la generación. para que el resultado utilice la terminología, el tono y los formatos correctos.
A pesar del entusiasmo inicial en torno a la IA generativa, su aplicación práctica en la empresa hasta ahora ha sido decepcionante. Pero RAG está cambiando el juego en todas las industrias al hacer posible ofrecer soluciones de IA generativa donde la precisión, la confiabilidad y la especificidad del dominio son requisitos estrictos.
Chandini Jain es el fundador y director ejecutivo de Auquan, un innovador de IA que transforma los datos no estructurados del mundo en inteligencia procesable para los clientes de servicios financieros. Antes de fundar Auquan, Jain pasó 10 años en finanzas globales, trabajando como operador en Optiver y Deutsche Bank. Es una reconocida experta y oradora en el campo del uso de la IA para la inversión y la gestión de riesgos ESG. Jain tiene una maestría en ingeniería mecánica/ciencias computacionales de la Universidad de Illinois en Urbana-Champaign y una licenciatura en tecnología del IIT Kanpur. Para obtener más información sobre Auquan, visite www.auquan.comy sigue a la empresa @auquan_ y en LinkedIn.
—
Generative AI Insights proporciona un lugar para que los líderes tecnológicos, incluidos proveedores y otros contribuyentes externos, exploren y discutan los desafíos y oportunidades de la inteligencia artificial generativa. La selección es amplia, desde análisis profundos de tecnología hasta estudios de casos y opiniones de expertos, pero también subjetiva, basada en nuestro juicio sobre qué temas y tratamientos servirán mejor a la audiencia técnicamente sofisticada de InfoWorld. InfoWorld no acepta garantías de marketing para su publicación y se reserva el derecho de editar todo el contenido aportado. Contacto doug_dineley@foundryco.com.
Copyright © 2024 IDG Communications, Inc.