Micron envía módulos HBM4 de 36 GB a clientes clave y marca un paso decisivo en la carrera por la memoria de alto rendimiento para la IA. Según el comunicado oficial del 10 de junio de 2025, Micron ya ha comenzado a enviar muestras HBM4 de 36 GB 12‑Hi, basadas en su proceso DRAM 1β, a múltiples clientes importantes .
Estas memorias están diseñadas para impulsar la inferencia y entrenamiento de modelos de IA, especialmente en centros de datos y servidores con GPUs de nueva generación — probablemente NVIDIA Rubin R100, entre otros. El vicepresidente de Micron, Raj Narasimhan, destacó que este envío “refuerza nuestro liderazgo en capacidad, ancho de banda y eficiencia energética”.
Micron planea comenzar la producción masiva en 2026, alineándose con el despliegue de las nuevas plataformas de IA de sus clientes . Este lanzamiento refuerza sus productos HBM4 dentro del estándar JEDEC, que apunta a módulos de hasta 64 GB y más de 1,6 TB/s.
Fuente: MICRON
Apple anuncia dos nuevas apps: Apple Business para empresas, disponible el 14 de abril, y…
La FCC prohibe la venta de routers fabricados fuera de EE.UU. por riesgos de seguridad…
Samsung anuncia que Quick Share en los Galaxy S26 será compatible con Apple AirDrop, permitiendo…
Valve lanza SteamOS 3.8.0 con perfiles de rendimiento personalizados por juego, soporte expandido para ASUS…
NVIDIA lanza nuevos modelos abiertos Nemotron 3 con hasta 120B parámetros para ejecutar agentes de…
NVIDIA actualiza GeForce NOW Ultimate con soporte para 90 FPS en dispositivos VR, mejorando la…