NVIDIA RTX GPUs ya soportan modelos gpt‑oss de OpenAI, permitiendo ejecutar los dos nuevos modelos de OpenAI directamente en tarjetas RTX con al menos 16 GB de memoria. Esto facilita acelerar la IA multimodal en PC y estaciones locales.
NVIDIA confirmó que sus tarjetas RTX con 16 GB o más pueden ejecutar los modelos gpt‑oss‑20b y gpt‑oss‑120b de OpenAI. Hasta ahora, ese tipo de IA multimodal solo corrÃa en centros de datos en la nube.
Con una RTX 5090, el modelo gpt‑oss‑20b alcanza hasta 250 tokens por segundo. En cambio, el más pesado gpt‑oss‑120b requiere estaciones RTX PRO con múltiples GPUs que sumen 80 GB RAM.
Ambos modelos soportan precisión MXFP4, capaz de mejorar calidad sin aumentar el coste computacional. Además, admiten contextos de hasta 131 072 tokens, lo que permite procesos complejos como razonamiento por pasos o acceso a herramientas externas.
Te cuento cómo el Synology DS1525+ se ha convertido en el cerebro de mi trabajo:…
Intel presenta los nuevos Core Ultra 9 290HX Plus y Core Ultra 7 270HX Plus…
NVIDIA confirma que DLSS 4.5 llega el 31 de marzo con modo x6 y hasta…
Juegos recomendados para el finde del 3 de octubre 2025. Descubre las mejores propuestas de…
EA comprado por 55 mil millones: las IPs de videojuegos brillan. El fondo soberano saudÃ…
Xbox renueva Game Pass: nuevos planes y subida de precio. Essential, Premium y Ultimate llegan…