
Micron envía módulos HBM4 de 36 GB a clientes clave y marca un paso decisivo en la carrera por la memoria de alto rendimiento para la IA. Según el comunicado oficial del 10 de junio de 2025, Micron ya ha comenzado a enviar muestras HBM4 de 36 GB 12‑Hi, basadas en su proceso DRAM 1β, a múltiples clientes importantes .
¿Por qué importa este avance?
- La interfaz de 2048 bits permite velocidades superiores a 2,0 TB/s por módulo, más del 60 % más rápido que la generación anterior.
- Además, la HBM4 es más de un 20 % más eficiente energéticamente comparada con la HBM3E, lo que mejora significativamente la eficiencia energética en centros de datos.
Aplicaciones prácticas
Estas memorias están diseñadas para impulsar la inferencia y entrenamiento de modelos de IA, especialmente en centros de datos y servidores con GPUs de nueva generación — probablemente NVIDIA Rubin R100, entre otros. El vicepresidente de Micron, Raj Narasimhan, destacó que este envío “refuerza nuestro liderazgo en capacidad, ancho de banda y eficiencia energética”.
Futuro cercano
Micron planea comenzar la producción masiva en 2026, alineándose con el despliegue de las nuevas plataformas de IA de sus clientes . Este lanzamiento refuerza sus productos HBM4 dentro del estándar JEDEC, que apunta a módulos de hasta 64 GB y más de 1,6 TB/s.
Fuente: MICRON