Ser la primera empresa en enviar memoria HBM3E tiene sus ventajas para Micron, ya que la compañía ha revelado que ha logrado vender todo el suministro de su memoria avanzada de alto ancho de banda para 2024, mientras que la mayor parte de su producción de 2025 se ha asignado, como Bueno. HBM3E de Micron La memoria (o como Micron la llama alternativamente, HBM3 Gen2) fue una de las primeras en calificar para los aceleradores H200/GH200 actualizados de NVIDIA, por lo que parece que el fabricante de DRAM será un proveedor clave para la empresa ecológica.
«Nuestro HBM está agotado para el año 2024 y la inmensa mayoría de nuestro suministro para 2025 ya ha sido asignado», dicho Sanjay Mehrotra, director ejecutivo de Micron, en comentarios preparados para la conferencia telefónica sobre resultados de la compañía esta semana. «Seguimos esperando una participación de bits de HBM equivalente a nuestra participación general de bits de DRAM en algún momento del año 2025».
El primer producto HBM3E de Micron es una pila de 8 Hi y 24 GB con una interfaz de 1024 bits, una velocidad de transferencia de datos de 9,2 GT/s y un ancho de banda total de 1,2 TB/s. El acelerador H200 de NVIDIA para inteligencia artificial y computación de alto rendimiento utilizará seis de estos cubos, proporcionando un total de 141 GB de memoria accesible de gran ancho de banda.
«Estamos en camino de generar varios cientos de millones de dólares de ingresos de HBM en el año fiscal 2024 y esperamos que los ingresos de HBM aumenten nuestra DRAM y los márgenes brutos generales a partir del tercer trimestre fiscal», dijo Mehrotra.
La compañía también comenzó a probar sus pilas de 12 Hi y 36 GB que ofrecen un 50% más de capacidad. Estos KGSD aumentarán en 2025 y se utilizarán para las próximas generaciones de productos de IA. Mientras tanto, no parece que los B100 y B200 de NVIDIA vayan a utilizar pilas HBM3E de 36 GB, al menos inicialmente.
La demanda de servidores de inteligencia artificial batió récords el año pasado y parece que seguirá siendo alta también este año. Algunos analistas creen que los procesadores A100 y H100 de NVIDIA (así como sus diversos derivados) representarán hasta el 80% de todo el mercado de procesadores de IA en 2023. Y aunque este año NVIDIA enfrentará una competencia más dura de AMD, AWS, D-Matrix, Intel, Tenstorrent y otras empresas en el frente de la inferencia, parece que el H200 de NVIDIA seguirá siendo el procesador elegido para el entrenamiento de IA, especialmente para grandes jugadores como Meta y Microsoft, que ya ejecutan flotas compuestas por cientos de miles de aceleradores NVIDIA. Teniendo esto en cuenta, ser proveedor principal de HBM3E para el H200 de NVIDIA es un gran negocio para Micron, ya que le permite capturar finalmente una porción considerable del mercado de HBM, que actualmente está dominado por SK Hynix y Samsung, y donde Micron controlaba únicamente alrededor del 10% desde el año pasado.
Mientras tanto, dado que cada dispositivo DRAM dentro de una pila HBM tiene una interfaz amplia, es físicamente más grande que los circuitos integrados DDR4 o DDR5 normales. Como resultado, el aumento de la memoria HBM3E afectará el suministro de bits de DRAM básicos de Micron, dijo la compañía.
«El aumento de la producción de HBM limitará el crecimiento de la oferta de productos distintos de HBM», afirmó Mehrotra. «En toda la industria, HBM3E consume aproximadamente tres veces el suministro de obleas que DDR5 para producir una cantidad determinada de bits en el mismo nodo tecnológico».