No habrían sido necesarios mil millones de parámetros. modelo de lenguaje grande (LLM) predecir que el tema dominante de la conferencia Google Cloud Next de este año sería IA generativaDe hecho, probablemente será el tema dominante del año para la mayoría de los desarrolladores de software empresarial.
En el evento, Google presentó una serie de actualizaciones a su plataforma en la nube para facilitar el trabajo con LLM y agregó asistentes generativos basados en inteligencia artificial a muchas de sus ofertas. Aquí hay seis conclusiones clave de la conferencia:
Al reconocer que las cargas de trabajo de IA difieren de otras cargas de trabajo, Google presentó una variedad de actualizaciones de su infraestructura en la nube para respaldarlas y ayudar a las empresas a optimizar el gasto en la nube. Primero: Google ha hecho la última versión de su módulo acelerador patentado para cargas de trabajo de IA, la Unidad de Procesamiento Tensor (TPU) v5p, generalmente disponible en su nube. Las cápsulas de TPU ahora son compatibles con Motor Google Kubernetes (GKE) y servicio de múltiples hosts en GKE.
Además, en el marco de una asociación ampliada con Nvidia, Google también está introduciendo la máquina virtual (VM) A3 Mega en su nube, impulsada por las GPU Nvidia H100.
Otras actualizaciones incluyen una serie de optimizaciones, especialmente el almacenamiento en caché, en sus productos de almacenamiento. Estas mejoras también vienen con un nuevo servicio de gestión de recursos y programación de trabajos para cargas de trabajo de IA, denominado Dynamic Workload Scheduler.
Sin embargo, combinar la programación con la herramienta de codificación de inteligencia artificial de Google ya no será un dúo. Google ha cambiado el nombre de su Duet AI para desarrolladores lanzado anteriormenterenombrándolo Gemini Code Assist para que coincida con la marca de su último LLM.
Gemini Code Assist tiene nuevas funciones que acompañan a su nuevo nombre. Basado en el modelo Gemini 1.5 Pro, proporciona servicios de chat y finalización de código impulsados por IA. Funciona en Google Cloud Console y se integra en editores de código populares como Código de estudio visual y JetBrainsal mismo tiempo que admite la base de código de una empresa en las instalaciones, GitHub, GitLab, Bitbucketo múltiples repositorios.
Las nuevas mejoras y funciones agregadas a Gemini Code Assist incluyen conocimiento completo de la base del código, personalización del código y mejoras en el ecosistema de socios de la herramienta que aumentan su eficiencia.
Para aumentar la eficiencia de la generación de código, la compañía está ampliando el ecosistema de socios de Gemini Code Assist agregando socios como Datadog, Registro de datosElástico, HashiCorp, neo4j, Piña, Redis, Tienda únicaSincronizar y Desbordamiento de pila.
Para la gestión de servicios en la nube, el proveedor ha presentado Gemini Cloud Assist, un asistente impulsado por IA diseñado para ayudar a los equipos empresariales a gestionar aplicaciones y redes en Google Cloud.
Se puede acceder a Gemini Cloud Assist a través de una interfaz de chat en la consola de Google Cloud. Está impulsado por el modelo de lenguaje grande propiedad de Google, Gemini.
Las empresas también pueden utilizar Gemini Cloud Assist para priorizar el ahorro de costos, el rendimiento o la alta disponibilidad. Basado en el lenguaje natural Con los aportes proporcionados por cualquier equipo empresarial, Gemini Cloud Assist identifica áreas de mejora y sugiere cómo lograr esos objetivos. También se puede integrar directamente en las interfaces donde los equipos empresariales gestionan diferentes productos y cargas de trabajo en la nube.
Además de gestionar los ciclos de vida de las aplicaciones, las empresas pueden utilizar Gemini Cloud Assist para generar asistencia basada en IA en una variedad de tareas de red, incluido el diseño, las operaciones y la optimización.
El asistente de inteligencia artificial basado en Gemini también se agregó al conjunto de ofertas de operaciones de seguridad de Google Cloud. Puede proporcionar gestión de identidad y acceso (IAM) recomendaciones e ideas clave, incluidas ideas para la informática confidencial, que ayudan a reducir la exposición al riesgo.
Para competir con ofertas similares de Microsoft y AWS, Google Cloud ha lanzado una nueva herramienta de inteligencia artificial generativa para crear chatbots, Vertex AI Agent Builder. Es una herramienta sin código que combina Vertex AI Search y la cartera de productos Conversation de la empresa. Proporciona una gama de herramientas para crear agentes virtuales, respaldadas por los LLM Gemini de Google.
Su gran punto de venta es su diseño listo para usar. TRAPO sistema, Vertex AI Search, que puede poner a tierra a los agentes más rápido que las técnicas RAG tradicionales. Sus API RAG integradas pueden ayudar a los desarrolladores a realizar comprobaciones rápidamente en las entradas de conexión a tierra.
Además, los desarrolladores tienen la opción de basar los resultados del modelo en la Búsqueda de Google para mejorar aún más las respuestas.
Otros cambios en Vertex AI incluyen actualizaciones de los LLM existentes y ampliaciones MLops capacidades.
Las actualizaciones de LLM incluyen una vista previa pública del modelo Gemini 1.5 Pro, que admite contexto de 1 millón de tokens. Además, Gemini 1.5 Pro en Vertex AI también podrá procesar transmisiones de audio, incluida voz y audio de videos.
El proveedor de servicios en la nube también actualizó su familia de LLM Imagen 2 con nuevas funciones, incluidas capacidades de edición de fotografías y la capacidad de crear videos de 4 segundos o “imágenes en vivo” a partir de indicaciones de texto. Otras actualizaciones de LLM para Vertex AI incluyen la incorporación de CodeGemma, un nuevo modelo liviano de su familia patentada Gemma.
Las actualizaciones de las herramientas MLops incluyen la incorporación de Vertex AI Prompt Management, que ayuda a los equipos empresariales a experimentar con indicaciones, migrar indicaciones y realizar un seguimiento de las indicaciones junto con los parámetros. Otras capacidades ampliadas incluyen herramientas como Evaluación rápida para verificar el rendimiento del modelo mientras se itera en el diseño rápido.
Google Cloud ha agregado capacidades impulsadas por su modelo de lenguaje grande patentado, Gemini, a sus ofertas de bases de datos, que incluyen Bigtable, Spanner, Memorystore para Redis, Firestore, CloudSQL para MySQL y AlloyDB para PostgreSQL.
Las capacidades impulsadas por Gemini incluyen SQL generación, y AI Asistencia en la gestión y migración de bases de datos.
Para ayudar a administrar mejor las bases de datos, el proveedor de servicios en la nube ha agregado una nueva función llamada Centro de bases de datos, que permitirá a los operadores administrar una flota completa de bases de datos desde un solo panel.
Google también ha ampliado Gemini a su servicio de migración de bases de datos, que anteriormente era compatible con Duet AI.
Las características mejoradas de Gemini mejorarán el servicio, dijo la compañía, y agregó que Gemini puede ayudar a convertir el código residente de la base de datos, como procedimientos almacenados y funciones, al dialecto PostgreSQL.
Además, la migración de la base de datos impulsada por Gemini también se centra en explicar la traducción del código con una comparación de dialectos en paralelo, junto con explicaciones detalladas del código y recomendaciones.
Como parte de estas actualizaciones, el proveedor de servicios en la nube ha agregado nuevas funciones generativas basadas en IA a AlloyDB AI. Estas nuevas características incluyen permitir que las aplicaciones generativas basadas en IA consulten datos con lenguaje natural y un nuevo tipo de vista de base de datos.
Google en Google Cloud Next 24 presentó tres proyectos de código abierto para crear y ejecutar modelos de IA generativa.
Los proyectos de código abierto recientemente presentados son MaxDifusión, JetStreamy TPU óptimo.
La compañía también introdujo nuevos LLM a su Texto máximo proyecto de LLM construidos por JAX. Los nuevos modelos LLM en MaxText incluyen Gemma, GPT-3, Llama 2 y Mistral, que son compatibles con las TPU de Google Cloud y las GPU de Nvidia.
Copyright © 2024 IDG Communications, Inc.