OpenAI, conocido por su modelo de lenguaje grande ChatGPT está dando un fuerte impulso al mercado empresarial. ¿En qué podría intensificarse la competencia entre los actores empresariales de la IA?anunció la empresa una serie de características nuevas diseñadas para brindar a las empresas más control, mejorar la seguridad y ofrecer opciones rentables al integrar las tecnologías de inteligencia artificial de OpenAI en sus operaciones.
«Estamos profundizando nuestro soporte para empresas con nuevas características que son útiles tanto para las grandes empresas como para cualquier desarrollador que esté escalando rápidamente en nuestra plataforma», dijo OpenAI.
Este movimiento posiciona a OpenAI como un actor serio en el creciente mercado de API de modelos de lenguaje grande (LLM), actualmente dominado por el modelo de lenguaje de código abierto Llama de Meta, que vio nuevas características en su versión mejorada Llama3.
«En términos de ventajas competitivas, el compromiso de OpenAI con la apertura, la colaboración y el desarrollo ético de la IA lo distingue», dijo Pradeepta Mishra, experto en IA, autor publicado en LLM y cofundador de la firma de privacidad de datos Data Safeguard. «Al lanzar modelos de última generación como GPT y fomentar un enfoque comunitario para la investigación de la IA, OpenAI ha atraído una atención y una adopción significativas en el ecosistema de la IA».
Además, el enfoque de OpenAI en soluciones empresariales puede acelerar la adopción de LLM entre las empresas, dijo Mishra. “Si bien la orientación de OpenAI a las empresas puede impulsar una adopción más rápida de los LLM en el mundo empresarial, es probable que las empresas aborden la adopción con una mezcla de entusiasmo y cautela, considerando varios factores como la confianza, la personalización, el cumplimiento normativo, el costo, la gestión de riesgos y la ética. consideraciones”, advirtió Mishra.
La seguridad es lo primero: proteger los datos confidenciales
Entre las actualizaciones clave se encuentra la introducción de Private Link, una característica que permite la comunicación directa entre la infraestructura de la nube de un cliente, por ejemplo, Microsoft Azure y Open AI, al tiempo que minimiza su exposición a la Internet abierta, reduciendo así las amenazas a la ciberseguridad. Además, ahora ofrece autenticación multifactor (MFA), que ofrece una capa adicional de seguridad para las cuentas de usuario.
“Estas son nuevas incorporaciones a nuestra pila existente de características de seguridad empresarial que incluyen certificación SOC 2 Tipo II, inicio de sesión único (SSO), cifrado de datos en reposo usando AES-256 y en tránsito usando TLS 1.2, y controles de acceso basados en roles. » OpenAI dijo en el anuncio.. «También ofrecemos acuerdos de socios comerciales para empresas de atención médica que requieren el cumplimiento de HIPAA y una política de retención de datos cero para clientes de API con un caso de uso calificado».
Tomar el control: supervisión granular y gestión de costos
La nueva función Proyectos de OpenAI podría cambiar las reglas del juego para las empresas que gestionan múltiples proyectos. Permite a las organizaciones tener un control granular sobre proyectos individuales y supervisión de proyectos individuales, explica el comunicado.
“Esto incluye la capacidad de asignar roles y claves API a proyectos específicos, restringir/permitir qué modelos estar disponibles y establecer límites basados en el uso y la tasa para brindar acceso y evitar excedentes inesperados. Los propietarios de proyectos también tendrán la capacidad de crear claves API de cuentas de servicio, que dan acceso a proyectos sin estar vinculados a un usuario individual”, dijo la compañía.
OpenAI también ha anunciado “dos nuevas formas” de ayudar a las empresas a gestionar sus gastos mientras amplían su uso de la IA. Ha ofrecido opciones de uso con descuento (hasta un 50 %) para el rendimiento comprometido y costos reducidos para cargas de trabajo asincrónicas.
«Los clientes con un nivel sostenido de uso de tokens por minuto (TPM) en GPT-4 o GPT-4 Turbo pueden solicitar acceso al rendimiento aprovisionado para obtener descuentos que oscilan entre el 10% y el 50% según el tamaño del compromiso», menciona el anuncio. . Del mismo modo, la compañía también ha introducido una API Batch, con un precio reducido del 50%, específica para tareas no urgentes. «Esto es ideal para casos de uso como evaluación de modelos, clasificación fuera de línea, resumen y generación de datos sintéticos», dijo la compañía.
Capacidades de asistente mejoradas para desarrolladores
La compañía también dijo que, con estas actualizaciones, los desarrolladores que trabajan con la API Asistente de OpenAI se beneficiarán de varias mejoras. Entre ellos destaca la «recuperación mejorada con ‘file_search’ que puede ingerir hasta 10.000 archivos por asistente, un aumento de 500 veces respecto al límite de archivos anterior de 20», añadió la empresa. «La herramienta es más rápida, admite consultas paralelas a través de búsquedas de subprocesos múltiples y ha mejorado la reclasificación y la reescritura de consultas».
La empresa también dijo que «seguirá agregando nuevas funciones centradas en seguridad de nivel empresarial, controles administrativos y gestión de costos». Esto elevaría el nivel de competencia en el espacio LLM en el futuro, espera Mishra de Data Safeguard. «El enfoque de OpenAI en soluciones empresariales puede acelerar la adopción de LLM entre las empresas».
Copyright © 2024 IDG Communications, Inc.