NVIDIA RTX GPUs ya soportan modelos gpt‑oss de OpenAI, permitiendo ejecutar los dos nuevos modelos de OpenAI directamente en tarjetas RTX con al menos 16 GB de memoria. Esto facilita acelerar la IA multimodal en PC y estaciones locales.
NVIDIA confirmĂł que sus tarjetas RTX con 16 GB o más pueden ejecutar los modelos gpt‑oss‑20b y gpt‑oss‑120b de OpenAI. Hasta ahora, ese tipo de IA multimodal solo corrĂa en centros de datos en la nube.
Con una RTX 5090, el modelo gpt‑oss‑20b alcanza hasta 250 tokens por segundo. En cambio, el más pesado gpt‑oss‑120b requiere estaciones RTX PRO con múltiples GPUs que sumen 80 GB RAM.
Ambos modelos soportan precisión MXFP4, capaz de mejorar calidad sin aumentar el coste computacional. Además, admiten contextos de hasta 131 072 tokens, lo que permite procesos complejos como razonamiento por pasos o acceso a herramientas externas.
IBM presenta el Power11 en Hot Chips 2025: CPU de 16 nĂşcleos a 4,3 GHz,…
AMD culpa a fabricantes de placas por el escándalo de sockets AM5 quemados. ASRock en…
Intel advierte que la entrada del gobierno de EE.UU. con un 9,9 % de acciones…
Huawei desarrolla supuestos “AI SSDs” que podrĂan sustituir la HBM en IA, ofreciendo más capacidad…
Paquete HD transforma todos los entornos de Baldur’s Gate 3. Texturas ambientales mejoradas con IA,…
Black Ops 7 vs Battlefield 6: Âżdiversidad o nostalgia? Black Ops 7 apuesta por ser…