OpenAI lanza modelos gpt‑oss que pueden funcionar en móviles de 16 GB, incluyendo el gpt‑oss‑20b, lo que permite ejecutar IA avanzada en smartphones con memorias altas como las de gama alta.
En julio de 2025, OpenAI liberó dos modelos open source: el gpt‑oss‑20b y el gpt‑oss‑120b. Ambos son modelos MoE (experto mixto), basados en la arquitectura Transformer, pero con requisitos diferentes. El primero puede ejecutarse en dispositivos con 16 GB de RAM, mientras que el segundo necesita entornos con hasta 80 GB.
El modelo más ligero, gpt‑oss‑20b, solo requiere unos 10 GB en formato MXFP4, por lo que teléfonos con 16 GB pueden ejecutarlo. Qualcomm ya confirmó que sus chips Snapdragon de gama alta lo soportan. El mismo caso se anticipa para los SoC Dimensity de MediaTek .
Una prueba con un móvil Galaxy S25 Ultra (12 GB de RAM) mostró que incluso al cerrar apps, solo quedaban unos 5 GB disponibles. Por eso, 12 GB resulta insuficiente para estos modelos MoE .
Este avance tecnológico podría cambiar la tendencia en la industria móvil. Muchos fabricantes aún lanzan modelos con 12 GB como estándar. Pero el uso de modelos como gpt‑oss‑20b exige móviles con 16 GB de RAM para garantizar ejecución fluida.
Google Pixel ya ofrece configuración uniforme de 16 GB en su línea Pro. Mientras tanto, muchos iPhones siguen en 8 GB, lo que limita su capacidad para ejecutar estos modelos .
Este anuncio marca un paso decisivo hacia el futuro de la IA en dispositivos personales.
IBM presenta el Power11 en Hot Chips 2025: CPU de 16 núcleos a 4,3 GHz,…
AMD culpa a fabricantes de placas por el escándalo de sockets AM5 quemados. ASRock en…
Intel advierte que la entrada del gobierno de EE.UU. con un 9,9 % de acciones…
Huawei desarrolla supuestos “AI SSDs” que podrían sustituir la HBM en IA, ofreciendo más capacidad…
Paquete HD transforma todos los entornos de Baldur’s Gate 3. Texturas ambientales mejoradas con IA,…
Black Ops 7 vs Battlefield 6: ¿diversidad o nostalgia? Black Ops 7 apuesta por ser…