NVIDIA RTX GPUs ya soportan modelos gpt‑oss de OpenAI

NVIDIA RTX GPUs ya soportan modelos gpt‑oss de OpenAI, permitiendo ejecutar los dos nuevos modelos de OpenAI directamente en tarjetas RTX con al menos 16 GB de memoria. Esto facilita acelerar la IA multimodal en PC y estaciones locales.

NVIDIA

¿Qué anunció NVIDIA?

NVIDIA confirmó que sus tarjetas RTX con 16 GB o más pueden ejecutar los modelos gpt‑oss‑20b y gpt‑oss‑120b de OpenAI. Hasta ahora, ese tipo de IA multimodal solo corría en centros de datos en la nube.

Con una RTX 5090, el modelo gpt‑oss‑20b alcanza hasta 250 tokens por segundo. En cambio, el más pesado gpt‑oss‑120b requiere estaciones RTX PRO con múltiples GPUs que sumen 80 GB RAM.

¿Qué novedades trae MXFP4 y larga memoria?

Ambos modelos soportan precisión MXFP4, capaz de mejorar calidad sin aumentar el coste computacional. Además, admiten contextos de hasta 131 072 tokens, lo que permite procesos complejos como razonamiento por pasos o acceso a herramientas externas.

¿Qué implica para usuarios y desarrolladores?

  • Las RTX con solo 12 GB no alcanzan a ejecutar el modelo gpt‑oss‑20b, lo que coloca estos modelos en un nivel medio‑alto.
  • La integración local en estaciones permite aplicaciones de IA más rápidas y accesibles sin depender de servidores externos.
  • Algunos móviles avanzados ya pueden correr la versión 20b gracias a arquitecturas eficientes con suficiente RAM.

¿Ventajas y limitaciones de este avance?

  • Las ventajas principales son menor latencia, mayor privacidad y control local del modelo.
  • El uso de modelos MoE con muchas requisas de memoria limita su acceso a hardware de gama alta.
  • Se abre un nuevo panorama para desarrolladores independientes y entornos profesionales que quieran montar IA local potente.

Conclusión: la IA local se acerca

  • NVIDIA y OpenAI permiten que la IA multimodal llegue a ordenadores de usuario con GPUs de 16 GB o más.
  • Esto marca una evolución en el cómputo de modelos grandes fuera de la nube.
  • Aunque se requiere hardware específico, el avance impulsa democratizar el uso de IA avanzada en PCs y estaciones locales.

Scroll al inicio