En los primeros días de la nube, tenía un pequeño negocio que tomaba aplicaciones empresariales y las rediseñaba para que pudieran entregarse como software como servicio activos en la nube. Muchas empresas creían que su aplicación personalizada, que aportaba valor al abordar una necesidad específica, podría revenderse como un servicio SaaS y convertirse en otra fuente de ingresos.
Vi a una empresa de neumáticos, una empresa de atención sanitaria, un banco e incluso una empresa de gestión de fianzas intentar convertirse en actores de la nube antes. Infraestructura como un servicio era una cosa. A veces funcionó.
El principal obstáculo fue que las empresas querían poseer un activo SaaS pero estaban menos interesadas en gestionarlo. Necesitarían invertir una gran cantidad de dinero para que funcionara y la mayoría no estaba dispuesta a hacerlo. El hecho de que pudiera convertir su aplicación empresarial en un activo distribuido por SaaS para múltiples inquilinos no significaba que debieran haberlo hecho.
«Puede» y «debería» son dos cosas muy diferentes a considerar. En la mayoría de esos casos, el sistema SaaS acabó consumiéndose únicamente dentro de la empresa. En otras palabras, construyeron una infraestructura en la que ellos mismos eran el único cliente.
Nuevos servicios de IA generativa de AWS
AWS ha introducido una nueva característica destinada a convertirse en el centro principal para los modelos de IA generativa personalizados de las empresas. La nueva oferta, Importación de modelo personalizado, lanzada en el Plataforma Amazon Bedrock (suite de AWS centrada en la empresa) y proporciona a las empresas infraestructura para alojar y ajustar su propiedad intelectual de IA interna como conjuntos de API totalmente administrados.
Este movimiento se alinea con la creciente demanda empresarial de soluciones de IA personalizadas. También ofrece herramientas para ampliar el conocimiento del modelo, ajustar el rendimiento y mitigar el sesgo. Todo esto es necesario para impulsar la IA y generar valor sin aumentar el riesgo de utilizarla.
En el caso de AWS, la importación de modelos personalizados permite integraciones de modelos en Amazon Bedrock, donde se unen a otros modelos, como Meta’s Llama 3 o Anthropic’s Claude 3. Esto brinda a los usuarios de IA la ventaja de administrar sus modelos de forma centralizada junto con los flujos de trabajo establecidos ya implementados. en Bedrock.
Además, AWS ha anunciado mejoras en el conjunto de modelos de IA Titan. El Titan Image Generator, que traduce descripciones de texto en imágenes, está pasando a estar disponible de forma general. AWS se mantiene cauteloso con respecto a los datos de entrenamiento específicos para este modelo, pero indica que se trata tanto de datos propietarios como de contenido pago con licencia.
Por supuesto, AWS puede aprovechar estos modelos para sus propios fines u ofrecerlos como servicios en la nube a sus socios y otras empresas dispuestas a pagar. Por cierto, AWS no afirmó esto. Solo estoy viendo cuántas empresas verán la inversión realizada para pasar al hosting LLM, tanto para otros, para IA como servicio y para su propio uso. Aprendimos la lección con el intento de SaaS de hace 20 años, y la mayoría de las empresas construirán y aprovecharán estos modelos para sus propios fines.
Los proveedores, como AWS, dicen que es más fácil construir e implementar IA en su plataforma en la nube que en la suya propia. Sin embargo, si el precio sube demasiado, sospecho que veremos cierta repatriación de estos modelos. Por supuesto, muchos encontrarán que una vez que aprovechen los servicios nativos en AWS, podrían quedarse con esa plataforma o pagar los costos de conversión de ejecutar su IA internamente o en otro proveedor de nube pública.
¿Qué significa esto para ti?
Veremos un montón de este tipo de lanzamientos durante el próximo año, aproximadamente, a medida que los proveedores de nube pública busquen captar más negocios en sus servicios de inteligencia artificial. Los lanzarán de manera acelerada, dado que la “apropiación de tierras por parte de la IA” está en marcha ahora. Una vez que los clientes se enganchen a los servicios de IA, será difícil deshacerse de ellos.
No asignaré ninguna mala intención a los proveedores de nube pública por estas estrategias, pero señalaré que esta también fue la estrategia básica para vender almacenamiento en la nube en 2011. Una vez que estás usando las API nativas, no probable que se traslade a otras nubes. Sólo cuando las cosas se vuelven demasiado caras las empresas consideran la repatriación o el traslado a un MSP o proveedor de colo.
Por lo tanto, esta es una opción para quienes buscan alojar y aprovechar sus propios modelos de IA de una manera escalable y conveniente. Una vez más, este es el camino de menor resistencia, es decir, más rápido y más barato de implementar, al principio.
El problema más importante es la viabilidad empresarial. Hemos aprendido de nuestras experiencias de almacenamiento en la nube y de informática que el hecho de que comprar algo sea más fácil que las opciones de hacerlo usted mismo puede no convertirlo en la opción correcta a largo plazo.
Necesitamos hacer los cálculos y comprender el riesgo de quedar atrapado y los objetivos a largo plazo de cómo las empresas quieren aprender esta tecnología. Me temo que tomaremos decisiones rápidas y terminaremos arrepintiéndonos en unos años. Hemos visto esa película antes, seguro.
Copyright © 2024 IDG Communications, Inc.