Mirando hacia adelante: El auge de la IA está en pleno apogeo y los fabricantes de chips están aportando tecnologías de memoria nuevas y avanzadas. La memoria de alto ancho de banda (HBM) de próxima generación está preparada para ofrecer aumentos significativos tanto en ancho de banda como en capacidad, y Samsung apunta a liderar la industria.
A pesar de entrar en Mercado HBM3E Con cierto retraso, Samsung presenta sus chips HBM3E 12H DRAM como un logro pionero en la tecnología de memoria por capas 3D. Los últimos chips de memoria del gigante coreano utilizan una novedosa pila de 12 capas, que puede ofrecer una 50 por ciento de aumento tanto en rendimiento como en capacidad en comparación con los chips HBM3E con una pila de 8 capas.
Los chips HBM3E 12H pueden alcanzar hasta 1.280 gigabytes por segundo (GB/s) de ancho de banda, afirma Samsung, proporcionando una capacidad sin precedentes de 36 gigabytes. Samsung logró apilar 12 capas en el mismo chip utilizando una película no conductora de compresión térmica avanzada (TC NCF), que parece mantener la misma especificación de altura que los chips de 8 capas, cumpliendo con los requisitos actuales para las aplicaciones de empaquetado de memorias de HBM.
TC NCF también ofrece beneficios adicionales al lograr los espacios entre chips más pequeños de la industria con siete micrómetros, al tiempo que reduce los huecos entre capas. La densidad de DRAM vertical se puede aumentar en un 20 por ciento en comparación con los chips HBM3E 8H. Se nos dice que las mejoras en la fabricación también proporcionan mejores propiedades térmicas y un mayor rendimiento del producto.
La corporación con sede en Seúl anticipa que su última generación de chips HBM3E (12H) proporcionará una solución «óptima» para aceleradores de IA con una creciente demanda de memoria DRAM. En comparación con los chips HBM3 8H, las memorias Samsung HBM3E 12H parecen ofrecer un aumento del 34 por ciento en la velocidad promedio para el entrenamiento de modelos de IA. Además, la empresa afirma que el número de usuarios simultáneos de servicios de inferencia se puede ampliar «más de 11,5 veces».
Actualmente, Samsung está proporcionando muestras de sus primeros chips HBM3E 12H a clientes selectos, y se espera que la producción en masa se realice en la primera mitad de 2024. Al mismo tiempo, Micron, otro actor importante en el mercado HBM3E, ha anunciado la producción a gran escala de sus últimos chips de memoria 3D. . La empresa con sede en Idaho está haciendo una importante apuesta por un diseño de chip HBM3E «tradicional» de 8 capas para impulsar su rendimiento financiero en el año fiscal 2024.
Micron suministrará a Nvidia chips HBM3E de 24 GB 8H para los próximos GPU con núcleo tensor H200un potente acelerador de IA que llegará al mercado en la segunda mitad de 2024. Al igual que Samsung, Micron está posicionando su tecnología HBM3E como una solución líder para aplicaciones con uso intensivo de memoria y servicios de IA generativa.
chips HBM3E oferta una velocidad de pin superior a 9,2 gigabits por segundo (Gb/s), lo que proporciona más de 1,2 terabytes por segundo (TB/s) de ancho de banda de memoria. La compañía afirma que el consumo de energía es un 30 por ciento menor que el de los productos de la competencia y la capacidad de 24 GB permite a los operadores de centros de datos lograr una «escalabilidad perfecta» para amplias aplicaciones de IA.
El vicepresidente ejecutivo y director comercial de Micron, Sumit Sadana, destaca que los nuevos chips HBM3E de la compañía pueden respaldar el crecimiento empresarial en medio de la creciente demanda de IA. De cara al futuro, Micron se está preparando para probar sus primeros chips HBM3E de 36 GB y 12 alturas en marzo.