Google Cloud dijo el jueves que está agregando soporte vectorial e integrando LangChain con todas sus ofertas de bases de datos en un esfuerzo por superar a los proveedores de servicios en la nube rivales, como Amazon Web Services (AWS), Microsoft y Oracle.
Los proveedores de servicios en la nube se han visto atrapados en una carrera para agregar inteligencia artificial generativa y capacidades relacionadas con la inteligencia artificial a sus ofertas de bases de datos para tener la ventaja de ser los primeros en avanzar y obtener una porción más grande del pastel. creciente mercado de IA y IA generativa.
Las nuevas actualizaciones de las ofertas de bases de datos incluyen la adición de soporte vectorial para bases de datos relacionales, de valor clave, de documentos y en memoria, como CloudSQL, Llavetienda de bomberos, Mesa grandey Memorystore para Redis.
La búsqueda del vecino más cercano es un diferenciador clave
Las capacidades vectoriales agregadas a las bases de datos incluyen capacidades de búsqueda que incluyen la búsqueda aproximada del vecino más cercano (ANN) y la búsqueda exacta del vecino más cercano (KNN).
Mientras que ANN se utiliza para optimizar la búsqueda, en otras palabras, reducir la latencia, para grandes conjuntos de datos, KNN se utiliza para devolver resultados de búsqueda más específicos o precisos en conjuntos de datos más pequeños, dijo David Menninger, director ejecutivo de Ventana Research de ISG.
«El soporte para ANN y KNN refleja que no existe un enfoque único para la búsqueda de vectores y que diferentes casos de uso requieren diferentes algoritmos de indexación para proporcionar el nivel requerido de precisión y rendimiento», explicó Menninger, y agregó que esto destaca que corresponde a los desarrolladores comprender la naturaleza de sus datos y aplicaciones, y experimentar con varias bases de datos para identificar las capacidades que mejor se adaptan a los requisitos de un proyecto individual.
La otra ventaja desde el punto de vista de Google, según el analista principal de Forrester, Noel Yuhanna, es que la mayoría de los proveedores de bases de datos no ofrecen tanto ANN como KNN.
“Algunos proveedores admiten KNN, mientras que otros respaldan el enfoque ANN. ANN es más popular porque es escalable y funciona bien para grandes conjuntos de datos y vectores de alta dimensión”, dijo Yuhanna.
Todas las capacidades vectoriales agregadas a las ofertas de bases de datos se encuentran actualmente en versión preliminar. En julio del año pasado, Google lanzó soporte para la popular extensión pgvector en aleacióndb y Cloud SQL para respaldar la creación de aplicaciones de IA generativa.
La incorporación de capacidades vectoriales en múltiples ofertas de bases de datos desde julio del año pasado a intervalos regulares, aparentemente hace que Google Cloud sea “más agresivo” que los hiperescaladores rivales, según Menninger.
Sin embargo, señaló que casi todos los proveedores de bases de datos están agregando soporte para capacidades de búsqueda vectorial y vectorial.
Microsoft, AWS y Oracle, según Yuhanna, tienen cierto nivel de capacidades de soporte vectorial en proceso en sus respectivas ofertas de bases de datos.
Los anuncios de Google Cloud podrían darle una ventaja sobre sus rivales, ya que parece estar un poco más avanzado que otros en términos de hacer que estas capacidades estén disponibles de manera general para las empresas, dijo Yuhanna.
Ambos analistas también señalaron que agregar soporte para capacidades vectoriales pronto se convertirá en algo en juego para los proveedores de plataformas de datos para respaldar el desarrollo de IA generativa aplicaciones complementando modelos de lenguaje grandes (LLM) con datos empresariales aprobados para mejorar la precisión y la confianza.
ISG, según Menninger, cree que casi todas las empresas que desarrollan aplicaciones basadas en IA generativa explorarán el uso de búsqueda vectorial y generación aumentada de recuperación para complementar los modelos básicos con datos y contenido patentados para fines de 2026.
Rivalidad entre bases de datos vectoriales y bases de datos tradicionales
Según los analistas, la incorporación de capacidades vectoriales por parte de hiperescaladores y otros proveedores de bases de datos a sus ofertas ha resultado en una creciente rivalidad entre las bases de datos vectoriales y las bases de datos tradicionales.
Si bien las bases de datos tradicionales han agregado capacidades vectoriales para presentar sus argumentos ante las empresas, las bases de datos vectoriales han agregado capacidades para hacer que sus productos sean más fácilmente consumibles por los no expertos, agregaron.
Sin embargo, Menninger de ISG cree que más del 50% de las empresas utilizarán ofertas de bases de datos tradicionales con soporte vectorial para 2026, dada su dependencia de estas bases de datos tradicionales.
Las bases de datos de vectores especializadas seguirán existiendo, aunque sólo para casos de uso más complejos y sofisticados, dijo Menninger. Pinecone, Chroma, Weaviate, Milvus y Qdrant son ejemplos de bases de datos especializadas.
Menninger explicó además que si la búsqueda de vectores se realiza mejor utilizando una base de datos de vectores especializada o una base de datos de propósito general dependerá de una variedad de factores, incluida la dependencia relativa de una empresa de una base de datos existente, las habilidades del desarrollador, el tamaño de la conjunto de datos y requisitos de aplicación específicos.
Integración de LangChain con todas las ofertas de bases de datos de Google
Google Cloud está agregando integraciones de LangChain para todas sus bases de datos. «Admitiremos tres integraciones de LangChain que incluyen almacenes de vectores, cargadores de documentos y memoria de mensajes de chat», dijo Andi Gutmans, vicepresidente de ingeniería de la división de bases de datos de Google Cloud.
LangChain es un marco para desarrollar aplicaciones impulsadas por LLM y la integración en bases de datos permitirá a los desarrolladores integrar Recuperación de Generación Aumentada (RAG)flujos de trabajo en su fuente de datos preferida, agregó Gutmans.
Si bien la integración de tiendas vectoriales LangChain está disponible para AlloyDB, Cloud SQL para PostgreSQL, Cloud SQL para MySQL, Memorystore para Redis y Spanner, la integración de memoria de cargadores de documentos y mensajes de chat está disponible para todas las bases de datos, incluidas Firestore, Bigtable y SQL Server. .
Los analistas ven la incorporación de integraciones de LangChain como un movimiento «asertivo» de Google.
“LangChain es actualmente el marco más popular para conectar LLM a fuentes privadas de datos empresariales, proporcionando integración neutral con bases de datos empresariales, así como entornos comerciales de implementación y desarrollo de aprendizaje automático, como SageMaker Studio y Estudio de IA vértice”, explicó Menninger.
AlloyDB AI disponible de forma generalizada
Google ha hecho que su oferta AlloyDB AI esté disponible de forma generalizada. Se puede utilizar a través de AlloyDB y AlloyDB Omni.
Aleación DB AIque pasó a versión preliminar en agosto del año pasado, es un conjunto de capacidades integradas que permiten a los desarrolladores crear aplicaciones generativas basadas en IA utilizando datos en tiempo real.
Se basa en el soporte vectorial básico disponible con PostgreSQL estándar y puede introducir una función PostgreSQL simple para generar incrustaciones de datos.
AlloyDB AI es una parte integral de AlloyDB y AlloyDB Omni, y está disponible sin costo adicional, dijo la compañía.
Copyright © 2024 IDG Communications, Inc.