Si bien las unidades de procesamiento de gráficos (GPU) alguna vez residieron exclusivamente en los dominios de los juegos con uso intensivo de gráficos y la transmisión de video, ahora las GPU están igualmente asociadas y aprendizaje automático (ML). Su capacidad para realizar múltiples cálculos simultáneos que distribuyen tareas (lo que acelera significativamente el procesamiento de cargas de trabajo de aprendizaje automático) hace que las GPU sean ideales para impulsar aplicaciones de inteligencia artificial (IA).
La instrucción única de datos múltiples (SIMD) La arquitectura de flujo en una GPU permite a los científicos de datos dividir tareas complejas en múltiples unidades pequeñas. Como tal, ahora es más probable que las empresas que persiguen iniciativas de IA y ML elijan GPU en lugar de unidades centrales de procesamiento (CPU) para analizar rápidamente grandes conjuntos de datos en cargas de trabajo de aprendizaje automático algorítmicamente complejas y con uso intensivo de hardware. Esto es especialmente cierto para grandes modelos de lenguaje (LLM) y el IA generativa aplicaciones basadas en LLM.
Sin embargo, las CPU de menor costo son más que capaces de ejecutar ciertas tareas de aprendizaje automático donde el procesamiento paralelo es innecesario. Estos incluyen algoritmos que realizan cálculos estadísticos, como procesamiento natural del lenguaje (PNL) y algunos aprendizaje profundo algoritmos. También hay ejemplos de IA que son apropiados para las CPU, como la telemetría y el enrutamiento de redes, el reconocimiento de objetos en cámaras CCTV, la detección de fallas en la fabricación y la detección de objetos en tomografías computarizadas y resonancias magnéticas.
Habilitar el desarrollo de aplicaciones basadas en GPU
Si bien los casos de uso de CPU anteriores continúan brindando beneficios a las empresas, el gran impulso de la IA generativa exige más GPU. Esto ha sido una gran ayuda para los fabricantes de GPU en todos los ámbitos, y especialmente para Nvidia, el líder indiscutible en la categoría. Y, sin embargo, a medida que crece la demanda de GPU en todo el mundo, más empresas se están dando cuenta de que configurar pilas de GPU y desarrollar en GPU no es fácil.
Para superar estos desafíos, Nvidia y otras organizaciones han introducido diferentes conjuntos de herramientas y marcos para facilitar a los desarrolladores la gestión de cargas de trabajo de aprendizaje automático y la escritura de código de alto rendimiento. Estos incluyen marcos de aprendizaje profundo optimizados para GPU, como PyTorch y TensorFlow así como de Nvidia CUDA estructura. No es una exageración decir que el marco CUDA ha cambiado las reglas del juego al acelerar las tareas de GPU para investigadores y científicos de datos.
GPU locales frente a GPU en la nube
Dado que las GPU son preferibles a las CPU para ejecutar muchas cargas de trabajo de aprendizaje automático, es importante comprender qué enfoque de implementación (local o basado en la nube) es más adecuado para las iniciativas de IA y ML que emprende una empresa determinada.
En una implementación de GPU local, una empresa debe comprar y configurar sus propias GPU. Esto requiere una importante inversión de capital para cubrir tanto el costo de las GPU como la construcción de un centro de datos dedicado, así como los gastos operativos de mantenimiento de ambos. Estas empresas disfrutan de una ventaja de propiedad: sus desarrolladores son libres de iterar y experimentar sin cesar sin incurrir en costos de uso adicionales, lo que no sería el caso con una implementación de GPU basada en la nube.
Las GPU basadas en la nube, por otro lado, ofrecen un paradigma de pago por uso que permite a las organizaciones aumentar o reducir el uso de GPU en cualquier momento. Los proveedores de GPU en la nube ofrecen equipos de soporte dedicados para manejar todas las tareas relacionadas con la infraestructura de la nube de GPU. De esta manera, el proveedor de GPU en la nube permite a los usuarios comenzar rápidamente a aprovisionar servicios, lo que ahorra tiempo y reduce responsabilidades. También garantiza que los desarrolladores tengan acceso a la última tecnología y a las GPU adecuadas para sus casos de uso actuales de ML.
Las empresas pueden obtener lo mejor de ambos mundos mediante una implementación de GPU híbrida. En este enfoque, los desarrolladores pueden usar sus GPU locales para probar y entrenar modelos, y dedicar sus GPU basadas en la nube para escalar servicios y brindar mayor resiliencia. Las implementaciones híbridas permiten a las empresas equilibrar sus gastos entre CapEx y OpEx, al tiempo que garantizan que los recursos de GPU estén disponibles en las proximidades de las operaciones del centro de datos de la empresa.
Optimización para cargas de trabajo de aprendizaje automático
Trabajar con GPU es un desafío, tanto desde el punto de vista de la configuración como del desarrollo de aplicaciones. Las empresas que optan por implementaciones locales a menudo experimentan pérdidas de productividad ya que sus desarrolladores deben realizar procedimientos repetitivos para preparar un entorno adecuado para sus operaciones.
Para preparar la GPU para realizar cualquier tarea, se deben completar las siguientes acciones:
- Instale y configure los controladores CUDA y el kit de herramientas CUDA para interactuar con la GPU y realizar cualquier operación adicional de la GPU.
- Instale las bibliotecas CUDA necesarias para maximizar la eficiencia de la GPU y utilizar los recursos computacionales de la GPU.
- Instale marcos de aprendizaje profundo como TensorFlow y PyTorch para realizar cargas de trabajo de aprendizaje automático como entrenamiento, inferencia y ajuste.
- Instalar herramientas como JupyterLab para ejecutar y probar el código y Estibador para ejecutar aplicaciones GPU en contenedores.
Este largo proceso de preparación de GPU y configuración de los entornos deseados con frecuencia abruma a los desarrolladores y también puede dar lugar a errores debido a versiones no compatibles o desactualizadas de las herramientas requeridas.
Cuando las empresas proporcionan a sus desarrolladores una infraestructura preconfigurada llave en mano y una pila de GPU basada en la nube, los desarrolladores pueden evitar realizar tareas y procedimientos administrativos engorrosos, como la descarga de herramientas. En última instancia, esto permite a los desarrolladores centrarse en trabajos de alto valor y maximizar su productividad, ya que pueden comenzar a crear y probar soluciones de inmediato.
Una estrategia de GPU en la nube también brinda a las empresas la flexibilidad de implementar la GPU adecuada para cualquier caso de uso. Esto les permite adaptar la utilización de GPU a sus necesidades comerciales, incluso cuando esas necesidades cambian, lo que aumenta la productividad y la eficiencia, sin estar limitados a una compra de GPU específica.
Además, dada la rápida evolución de las GPU, asociarse con un proveedor de GPU en la nube ofrece capacidad de GPU donde la organización la necesite, y el proveedor de la nube mantendrá y actualizará sus GPU para garantizar que los clientes siempre tengan acceso a GPU que ofrezcan el máximo rendimiento. Un paradigma de implementación híbrida o en la nube permitirá a los equipos de ciencia de datos centrarse en actividades generadoras de ingresos en lugar de aprovisionar y mantener GPU e infraestructura relacionada, además de evitar invertir en hardware que pronto podría quedar obsoleto.
Kevin Cochrane es director de marketing de Vultr.
—
Generative AI Insights proporciona un lugar para que los líderes tecnológicos, incluidos proveedores y otros contribuyentes externos, exploren y discutan los desafíos y oportunidades de la inteligencia artificial generativa. La selección es amplia, desde análisis profundos de tecnología hasta estudios de casos y opiniones de expertos, pero también subjetiva, basada en nuestro juicio sobre qué temas y tratamientos servirán mejor a la audiencia técnicamente sofisticada de InfoWorld. InfoWorld no acepta garantías de marketing para su publicación y se reserva el derecho de editar todo el contenido aportado. Contacto doug_dineley@foundryco.com.
Copyright © 2024 IDG Communications, Inc.