Hable con cualquiera sobre la IA generativa en la nube y la conversación pasará rápidamente a las GPU (unidades de procesamiento de gráficos). Pero ese podría ser un objetivo falso. Las GPU no importan tanto como la gente cree y, en unos años, la conversación probablemente cambiará a lo que es mucho más crítico para el desarrollo y la implementación de sistemas de IA generativa en la nube.
La suposición actual es que las GPU son indispensables para facilitar los cálculos complejos que requieren los modelos de IA generativa. Si bien las GPU han sido fundamentales para el avance de la IA, darles demasiado énfasis podría restar valor a la exploración y el aprovechamiento de alternativas igualmente efectivas y potencialmente más sostenibles. De hecho, las GPU podrían convertirse rápidamente en productos básicos como otros recursos que necesitan los sistemas de IA, como el espacio de almacenamiento y procesamiento. La atención debería centrarse en diseñar e implementar estos sistemas, no sólo en el hardware en el que se ejecutan. Llámame loco.
Fiebre del oro de la GPU
La importancia de las GPU ha funcionado bien para Nvidia, una empresa a la que la mayoría de la gente no le había prestado mucha atención hasta ahora. En su trimestre más reciente, Nvidia registró ingresos récord por centros de datos de 14.500 millones de dólares, un 41 % más que el trimestre anterior y un 279 % más que el trimestre del año anterior. Sus GPU son ahora el estándar en el procesamiento de IA, incluso más que los juegos.
Más allá de la explosión de las acciones de Nvidia, no se pueden abrir las redes sociales sin ver a alguien tomándose una selfie con Jensen Huang, CEO de Nvidia. Además, todo el mundo se ha asociado con Nvidia y ha gestionado presupuestos multimillonarios para acercarse a esta empresa y tecnología de alto crecimiento.
Inicialmente diseñadas para acelerar gráficos 3D en juegos en la década de 1990, las GPU han evolucionado desde sus orígenes. La arquitectura de GPU inicial estaba altamente especializada para cálculos gráficos y se usaba principalmente para renderizar imágenes y manejar las tareas intensivas de procesamiento paralelo asociadas con la renderización 3D. Esto los convierte en una buena opción para la IA, ya que son expertos en tareas que requieren cálculos simultáneos.
¿Son las GPU realmente importantes?
Las GPU requieren un chip anfitrión para organizar las operaciones. Aunque esto simplifica la complejidad y la capacidad de las arquitecturas de GPU modernas, también es menos eficiente de lo que podría ser. Las GPU funcionan junto con las CPU (el chip host), que descargan tareas específicas a las GPU. Además, estos chips host gestionan el funcionamiento general de los programas de software.
A esta cuestión de eficiencia se suma la necesidad de comunicaciones entre procesos; desafíos para desmontar modelos, procesarlos en partes y luego volver a ensamblar los resultados para un análisis o inferencia integral; y las complejidades inherentes al uso de GPU para aprendizaje profundo e inteligencia artificial. Este proceso de segmentación y reintegración es parte de la distribución de tareas informáticas para optimizar el rendimiento, pero conlleva sus propias cuestiones de eficiencia.
Se requieren bibliotecas de software y marcos diseñados para abstraer y gestionar estas operaciones. Tecnologías como CUDA (Compute Unified Device Architecture) de Nvidia proporcionan el modelo de programación y el conjunto de herramientas necesarios para desarrollar software que pueda aprovechar las capacidades de aceleración de GPU.
Una razón fundamental del gran interés en Nvidia es que proporciona un ecosistema de software que permite a las GPU trabajar de manera más eficiente con aplicaciones, incluidos juegos, aprendizaje profundo e inteligencia artificial generativa. Sin estos ecosistemas, CUDA y otros no tendrían el mismo potencial. Así, el foco de atención está puesto en Nvidia, que por ahora tiene tanto el procesador como el ecosistema.
Alternativas en el horizonte
No estoy diciendo que las GPU de Nvidia sean una mala tecnología. Es evidente que son eficaces. El argumento es que hacer que la capa de procesamiento sea el foco principal de la construcción e implementación de sistemas de IA generativa en la nube es un poco una distracción.
Sospecho que dentro de dos años, las GPU seguramente seguirán estando presentes, pero el entusiasmo por ellas habrá pasado hace tiempo. En cambio, nos centraremos en la eficiencia de la inferencia, la mejora continua de los modelos y nuevas formas de gestionar algoritmos y datos.
El meteórico ascenso de Nvidia hace que los inversores corran por sus chequeras para invertir en posibles alternativas para jugar en ese mercado. Los competidores aparentes en este momento son AMD e Intel. Intel, por ejemplo, es buscando una alternativa de GPU con su procesador Gaudí 3. Más interesante aún, varias empresas emergentes afirman haber creado mejores formas de procesar modelos de lenguaje grandes. Una breve lista de estas empresas incluye SambaNova, Cerebras, GraphCore, Groq y xAI.
Por supuesto, estas empresas no solo buscan construir chips y ecosistemas de software para esos chips, sino que muchas están trabajando para proporcionar micronubes o pequeños proveedores de nubes que ofrecerán sus alternativas de GPU como un servicio, muy parecido a lo que hacen hoy AWS, Microsoft y Google con GPU disponibles. La lista de Los proveedores de GPU en la nube crecen día a díaa juzgar por la cantidad de agencias de relaciones públicas que llaman a mi puerta para llamar la atención.
Si bien solo estamos revendiendo el procesamiento de GPU de Nvidia, puede contar con estas mismas micronubes para adoptar nuevas GPU análogas a medida que lleguen al mercado, considerando que son más baratas, más eficientes y requieren menos energía. Si eso ocurre, reemplazarán rápidamente cualquier procesador que sea menos avanzado. Es más, si el rendimiento y la confiabilidad están ahí, realmente no nos importa qué marca sea el procesador, ni siquiera la arquitectura que emplee. En ese mundo, dudo que busquemos selfies con los directores ejecutivos de esas empresas. Es sólo un componente de un sistema que funciona.
A veces no se necesitan GPU
Por supuesto, como cubrí aquíSin embargo, las GPU no siempre son necesarias para la IA generativa u otro procesamiento de IA. Los modelos más pequeños pueden funcionar eficientemente en CPU tradicionales u otro hardware especializado y ser más eficientes en términos de costos y energía.
Muchas de mis arquitecturas de IA generativa han utilizado CPU tradicionales sin un impacto significativo en el rendimiento. Por supuesto, depende de lo que estés intentando hacer. La mayoría de las implementaciones de IA generativa empresarial requerirán menos energía, y sospecho que muchos de los proyectos actuales de IA generativa que insisten en usar GPU a menudo son excesivos.
Con el tiempo, comprenderemos mejor cuándo se deben utilizar las GPU (o sus análogas) y cuándo no son necesarias. Sin embargo, al igual que estamos viendo con la inflación de la nube, las empresas pueden sobreaprovisionar la potencia de procesamiento para sus sistemas de IA y no les importará hasta que vean la factura. No hemos llegado al punto en el que nos preocupemos demasiado por la optimización de costes de los sistemas de IA generativa, pero en algún momento tendremos que ser responsables.
Bien, Linthicum está volviendo a ser un alboroto. Supongo que sí, pero por una buena razón. Estamos a punto de entrar en una época de muchos cambios y transformaciones en el uso de la tecnología de IA que afectará a la TI en el futuro. Lo que me mantiene despierto por la noche es que la industria de TI se está distrayendo con otro objeto brillante. Por lo general, eso no termina bien.
Copyright © 2024 IDG Communications, Inc.