Micron envía módulos HBM4 de 36 GB a clientes clave y marca un paso decisivo en la carrera por la memoria de alto rendimiento para la IA. Según el comunicado oficial del 10 de junio de 2025, Micron ya ha comenzado a enviar muestras HBM4 de 36 GB 12‑Hi, basadas en su proceso DRAM 1β, a múltiples clientes importantes .
Estas memorias están diseñadas para impulsar la inferencia y entrenamiento de modelos de IA, especialmente en centros de datos y servidores con GPUs de nueva generación — probablemente NVIDIA Rubin R100, entre otros. El vicepresidente de Micron, Raj Narasimhan, destacó que este envío “refuerza nuestro liderazgo en capacidad, ancho de banda y eficiencia energética”.
Micron planea comenzar la producción masiva en 2026, alineándose con el despliegue de las nuevas plataformas de IA de sus clientes . Este lanzamiento refuerza sus productos HBM4 dentro del estándar JEDEC, que apunta a módulos de hasta 64 GB y más de 1,6 TB/s.
Fuente: MICRON
NVIDIA lanza nuevos modelos abiertos Nemotron 3 con hasta 120B parámetros para ejecutar agentes de…
NVIDIA actualiza GeForce NOW Ultimate con soporte para 90 FPS en dispositivos VR, mejorando la…
Te cuento cómo el Synology DS1525+ se ha convertido en el cerebro de mi trabajo:…
Intel presenta los nuevos Core Ultra 9 290HX Plus y Core Ultra 7 270HX Plus…
NVIDIA confirma que DLSS 4.5 llega el 31 de marzo con modo x6 y hasta…
Juegos recomendados para el finde del 3 de octubre 2025. Descubre las mejores propuestas de…