OpenAI lanza modelos gpt‑oss que pueden funcionar en móviles de 16 GB, incluyendo el gpt‑oss‑20b, lo que permite ejecutar IA avanzada en smartphones con memorias altas como las de gama alta.
En julio de 2025, OpenAI liberó dos modelos open source: el gpt‑oss‑20b y el gpt‑oss‑120b. Ambos son modelos MoE (experto mixto), basados en la arquitectura Transformer, pero con requisitos diferentes. El primero puede ejecutarse en dispositivos con 16 GB de RAM, mientras que el segundo necesita entornos con hasta 80 GB.
El modelo más ligero, gpt‑oss‑20b, solo requiere unos 10 GB en formato MXFP4, por lo que teléfonos con 16 GB pueden ejecutarlo. Qualcomm ya confirmó que sus chips Snapdragon de gama alta lo soportan. El mismo caso se anticipa para los SoC Dimensity de MediaTek .
Una prueba con un móvil Galaxy S25 Ultra (12 GB de RAM) mostró que incluso al cerrar apps, solo quedaban unos 5 GB disponibles. Por eso, 12 GB resulta insuficiente para estos modelos MoE .
Este avance tecnológico podría cambiar la tendencia en la industria móvil. Muchos fabricantes aún lanzan modelos con 12 GB como estándar. Pero el uso de modelos como gpt‑oss‑20b exige móviles con 16 GB de RAM para garantizar ejecución fluida.
Google Pixel ya ofrece configuración uniforme de 16 GB en su línea Pro. Mientras tanto, muchos iPhones siguen en 8 GB, lo que limita su capacidad para ejecutar estos modelos .
Este anuncio marca un paso decisivo hacia el futuro de la IA en dispositivos personales.
Samsung anuncia que Quick Share en los Galaxy S26 será compatible con Apple AirDrop, permitiendo…
Valve lanza SteamOS 3.8.0 con perfiles de rendimiento personalizados por juego, soporte expandido para ASUS…
NVIDIA lanza nuevos modelos abiertos Nemotron 3 con hasta 120B parámetros para ejecutar agentes de…
NVIDIA actualiza GeForce NOW Ultimate con soporte para 90 FPS en dispositivos VR, mejorando la…
Te cuento cómo el Synology DS1525+ se ha convertido en el cerebro de mi trabajo:…
Intel presenta los nuevos Core Ultra 9 290HX Plus y Core Ultra 7 270HX Plus…