
El jueves, varias empresas tecnológicas importantes, incluidas Google, Intel, Microsoft, Meta, AMD, Hewlett Packard Enterprise, Cisco y Broadcom, anunciaron la formación del Ultra Accelerator Link (ULink) Promoter Group para desarrollar un nuevo estándar de interconexión para aceleradores de IA. chips en centros de datos. El grupo pretende crear una alternativa a la propiedad de Nvidia NVEnlace tecnología de interconexión, que vincula múltiples servidores que impulsan las aplicaciones de inteligencia artificial actuales como ChatGPT.
El corazón palpitante de la IA en estos días reside en GPU, que puede realizar cantidades masivas de multiplicaciones de matrices, necesarias para ejecutar la arquitectura de red neuronal, en paralelo. Pero una GPU a menudo no es suficiente para sistemas complejos de IA. NVLink puede conectar varios chips aceleradores de IA dentro de un servidor o entre varios servidores. Estas interconexiones permiten una transferencia de datos y una comunicación más rápidas entre los aceleradores, lo que les permite trabajar juntos de manera más eficiente en tareas complejas como el entrenamiento de grandes modelos de IA.
Este vínculo es una parte clave de cualquier sistema moderno de centro de datos de IA, y quien controle el estándar de vínculo puede dictar de manera efectiva qué hardware utilizarán las empresas de tecnología. En ese sentido, el grupo UALink busca establecer un estándar abierto que permita a múltiples empresas contribuir y desarrollar avances en hardware de IA en lugar de quedar atrapadas en el ecosistema propietario de Nvidia. Este enfoque es similar a otros estándares abiertos, como Enlace exprés de cálculo (CXL), creado por Intel en 2019, que proporciona conexiones de alta velocidad y alta capacidad entre CPU y dispositivos o memoria en centros de datos.
No es la primera vez que las empresas de tecnología se alinean para contrarrestar a un líder del mercado de la IA. En diciembre, IBM y Meta, junto con más de 50 organizaciones más, formó una «Alianza AI» promover modelos abiertos de IA y ofrecer una alternativa a los sistemas cerrados de IA como los de OpenAI y Google.
Dado el dominio del mercado de Nvidia, el actual líder del mercado en chips de IA, tal vez no sea sorprendente que la compañía no se haya unido al nuevo UALink Promoter Group. reciente de nvidia éxito financiero masivo lo coloca en una posición sólida para seguir forjando su propio camino. Pero a medida que las principales empresas de tecnología continúan invirtiendo en el desarrollo de sus propios chips de IA, la necesidad de una tecnología de interconexión estandarizada se vuelve más apremiante, particularmente como un medio para contrarrestar (o al menos equilibrar) la influencia de Nvidia.
Acelerando la IA compleja
UALink 1.0, la primera versión del estándar propuesto, está diseñada para conectar hasta 1.024 GPU dentro de un único «pod» informático, definido como uno o varios bastidores de servidores. El estándar se basa en tecnologías como Arquitectura infinita de AMD y se espera que mejore la velocidad y reduzca la latencia de transferencia de datos en comparación con las especificaciones de interconexión existentes.
El grupo tiene la intención de formar el Consorcio UALink más adelante en 2024 para gestionar el desarrollo continuo de la especificación UALink. Las empresas miembros tendrán acceso a UALink 1.0 al unirse, con una versión de mayor ancho de banda, UALink 1.1, cuyo lanzamiento está previsto para el cuarto trimestre de 2024.
Se espera que los primeros productos UALink estén disponibles dentro de los próximos dos años, lo que puede brindarle a Nvidia suficiente tiempo para expandir el bloqueo de propiedad a medida que crece el mercado de centros de datos de IA.