Google está integrando su modelo de lenguaje grande Gemini 1.0 Pro con su plataforma de inteligencia artificial y aprendizaje automático. IA de vérticepara ayudar a las empresas a desbloquear nuevas capacidades de grandes modelos de lenguaje (LLM), incluido el análisis de texto, imagen y video.
El API de Géminisque ya está disponible de forma generalizada, también se puede utilizar en el almacén de datos de Google, Gran consultapara desarrollar aplicaciones analíticas generativas basadas en IA.
“El modelo Gemini 1.0 Pro está diseñado para una mayor escala de entrada y salida y una mejor calidad de resultados en una amplia gama de tareas como resúmenes de texto y análisis de sentimientos. Ahora puedes acceder a él usando declaraciones SQL simples o el incrustado de BigQuery. API de marco de datos desde el interior de la consola de BigQuery”, dijo en un comunicado Gerrit Kazmaier, director general de análisis de datos de Google Cloud.
También se espera que la empresa integre la versión de visión del modelo Gemini Pro en los próximos meses.
Además, Google está ampliando la versión de Vertex AI. Procesamiento de documentos y dictado a texto API para BigQuery para ayudar a las empresas a analizar datos no estructurados, como documentos y audio.
A principios de este mes, la compañía anunció la vista previa de Búsqueda de vectores de BigQueryque cuando se integra con Vertex AI puede permitir la búsqueda de similitudes vectoriales en datos dentro de BigQuery junto con otras características como recuperación de generación aumentada (RAG)agrupación de texto y resumen.
Hyoun Park, analista principal de Amalgam Insights, considera que el soporte de RAG es algo en juego para los proveedores de almacenes de datos en estos días.
«La generación aumentada de recuperación es una capacidad que todo almacén de datos deberá admitir, ya que se refiere al acceso a datos de una fuente de terceros cuando alguien hace una pregunta», dijo Park. “Por ejemplo, si alguien hace una pregunta sobre recursos humanos, el RAG también solicitará al sistema de recursos humanos del empleado datos relevantes y actuales para contextualizar la pregunta. La capacidad relevante aquí es acceder a una actualización en tiempo real de una tabla o fuente de datos específica cuando alguien hace una pregunta a un LLM «.
Otras empresas están avanzando en una dirección similar. Steven Dickens, vicepresidente y líder de práctica de The Futurum Group, dijo que los incondicionales del almacén como Teradata y Cloudera también están agregando capacidades vectoriales junto con jugadores como Oracle y Elastic.
Copyright © 2024 IDG Communications, Inc.