Samsung dice que ha desarrollado la primera DRAM HBM3E 12H de 12 pilas de la industria, superando a Micron Technology y potencialmente sentando las bases para la próxima generación de NVIDIATarjetas de IA.
El HBM3E 12H del gigante tecnológico surcoreano ofrece un ancho de banda de hasta 1280 GB/s y una capacidad líder en la industria de 36 GB, lo que representa una mejora de más del 50 % con respecto al HBM3 8H de 8 pilas.
El HBM3E 12H de 12 pilas utiliza una película no conductora de compresión térmica avanzada (TC NCF), que permite que los productos de 12 capas cumplan con los requisitos actuales del paquete HBM manteniendo la misma especificación de altura que los de 8 capas. Estos avances han dado lugar a un aumento del 20 % en la densidad vertical en comparación con el producto HBM3 8H de Samsung.
La batalla se calienta
«Los proveedores de servicios de IA de la industria requieren cada vez más HBM con mayor capacidad, y nuestro nuevo producto HBM3E 12H ha sido diseñado para responder a esa necesidad», afirmó Yongcheol Bae, vicepresidente ejecutivo de planificación de productos de memoria de Samsung Electronics. «Esta nueva solución de memoria forma parte de nuestro impulso hacia el desarrollo de tecnologías centrales para HBM de alta capacidad y para proporcionar liderazgo tecnológico para el mercado de HBM de alta capacidad».
Mientras tanto, Micron ha comenzado la producción en masa de su HBM3E 8H de 24 GB, que se utilizará en las últimas GPU H200 Tensor Core de Nvidia. Micron afirma que su HBM3E consume un 30% menos de energía que sus competidores, lo que lo hace ideal para aplicaciones de IA generativa.
A pesar de perderse la tarjeta AI más cara de Nvidia, la memoria HBM3E 12H de 36 GB de Samsung supera a la HBM3E 8H de 24 GB de Micron en términos de capacidad y ancho de banda. A medida que las aplicaciones de IA sigan creciendo, el 12H HBM3E de Samsung será una opción obvia para futuros sistemas que requieran más memoria, como el de Nvidia. B100 Blackwell potencia de IA que se espera llegue a finales de este año.
Samsung ya ha comenzado a probar su HBM3E 12H de 36 GB a los clientes y se espera que la producción en masa comience en la primera mitad de este año. Micron comenzará a enviar su HBM3E 8H de 24 GB en el segundo trimestre de 2024. Se espera que la competencia entre los dos gigantes tecnológicos en el mercado de HBM se intensifique a medida que la demanda de soluciones de memoria de alta capacidad continúe aumentando en la era de la IA.