Samsung dijo el martes que ha desarrollado la primera DRAM HBM3E de 12 pilas de la industria, lo que la convierte en una memoria de gran ancho de banda con la mayor capacidad hasta la fecha.
El gigante tecnológico surcoreano dijo que la DRAM HBM3E 12H proporciona un ancho de banda máximo de 1280 GB/s y una capacidad de 36 GB. El ancho de banda y la capacidad aumentaron un 50% en comparación con el HBM3 de 8 pilas, dijo Samsung.
HBM se componen de múltiples módulos DRAM apilados verticalmente, cada uno de los cuales se denomina pila o capa. En el caso del último de Samsung, cada módulo DRAM tiene una capacidad de 24 gigabits (Gb), equivalente a 3 gigabytes (GB), y son doce.
Los fabricantes de memorias Samsung, SK Hynix y Micron compiten para apilar más y al mismo tiempo limitan la altura de las pilas para hacer que el chip sea lo más delgado posible y con más capacidad.
Los tres planean aumentar su producción de HBM este año. Ahora que el ciclo descendente del mercado de chips de memoria parece haber terminado, y para satisfacer la gran demanda derivada de la popularidad de la IA, que ha aumentado la demanda de GPU __ especialmente los hechos por Nvidia __ que están emparejados con estos HBM.
Según Samsung, aplicó una película no conductora de compresión térmica avanzada (TC NCF) para hacer que el HBM3E de 12 pilas tenga la misma altura que los de 8 pilas para cumplir con los requisitos del paquete. La película era más delgada que las utilizadas anteriormente y eliminó los huecos entre las pilas y el espacio entre ellas se redujo a siete micrómetros, dijo la compañía, lo que permitió que el HBM3E de 12 pilas fuera verticalmente denso en más del 20% en comparación con las 8 pilas.
Samsung dijo que TC NCF también permitió el uso de protuberancias pequeñas y grandes, donde durante la unión del chip, las protuberancias pequeñas se utilizan en áreas de señalización y las grandes en lugares que necesitan disipación de calor.
El gigante tecnológico dijo que el mayor rendimiento y capacidad del HBM3E 12H permitirá a los clientes reducir el costo total de propiedad de los centros de datos. Para las aplicaciones de IA, la velocidad promedio del entrenamiento de IA se puede aumentar en un 34% y el número de usuarios simultáneos de servicios de inferencia se puede aumentar 11,5 veces en comparación con el HBM3 8H, afirmó Samsung.
La empresa ya ha proporcionado muestras de HBM3E 12H a los clientes y tiene previsto iniciar la producción en masa en el primer semestre de este año.