Categories: NoticiaTecnología

OpenAI lanza modelos gpt‑oss que pueden funcionar en móviles de 16 GB

OpenAI lanza modelos gpt‑oss que pueden funcionar en móviles de 16 GB, incluyendo el gpt‑oss‑20b, lo que permite ejecutar IA avanzada en smartphones con memorias altas como las de gama alta.

¿Qué modelos presentó OpenAI?

En julio de 2025, OpenAI liberó dos modelos open source: el gpt‑oss‑20b y el gpt‑oss‑120b. Ambos son modelos MoE (experto mixto), basados en la arquitectura Transformer, pero con requisitos diferentes. El primero puede ejecutarse en dispositivos con 16 GB de RAM, mientras que el segundo necesita entornos con hasta 80 GB.

Ejecución en móviles: una posibilidad real

El modelo más ligero, gpt‑oss‑20b, solo requiere unos 10 GB en formato MXFP4, por lo que teléfonos con 16 GB pueden ejecutarlo. Qualcomm ya confirmó que sus chips Snapdragon de gama alta lo soportan. El mismo caso se anticipa para los SoC Dimensity de MediaTek .

Una prueba con un móvil Galaxy S25 Ultra (12 GB de RAM) mostró que incluso al cerrar apps, solo quedaban unos 5 GB disponibles. Por eso, 12 GB resulta insuficiente para estos modelos MoE .

¿Por qué importa esto ahora?

Este avance tecnológico podría cambiar la tendencia en la industria móvil. Muchos fabricantes aún lanzan modelos con 12 GB como estándar. Pero el uso de modelos como gpt‑oss‑20b exige móviles con 16 GB de RAM para garantizar ejecución fluida.

Google Pixel ya ofrece configuración uniforme de 16 GB en su línea Pro. Mientras tanto, muchos iPhones siguen en 8 GB, lo que limita su capacidad para ejecutar estos modelos .

Ventajas y limitaciones

  • Ventajas: baja latencia, mayor privacidad y poder de IA en local sin depender de nube.
  • Limitaciones: requiere hardware específico (mínimo 16 GB RAM). Además, modelos MoE demandan cargar todos los parámetros aunque no se ejecuten todos.

Conclusión: un nuevo estándar RAM móvil de OpenAI

  • OpenAI impulsa la ejecución de IA avanzada en móviles con el lanzamiento del gpt‑oss‑20b.
  • Este modelo claramente eleva el listón en hardware móvil: 16 GB se convierte en la nueva base para ejecutar IA local de gran escala.
  • Aunque el modelo 120b sigue reservado a hardware profesional, la democratización de la IA local ya empieza a materializarse.

Este anuncio marca un paso decisivo hacia el futuro de la IA en dispositivos personales.


Michael Tavarez Perez

Escribo artículos en la web. Tras pasar por varias empresas como técnico de telecomunicaciones, decidí probar con el diseño web. Me gusta a jugar a videojuegos, montar PCs y trastear con tecnología en general.

Recent Posts

Samsung Galaxy S26 ahora es compatible con AirDrop: Quick Share rompe la barrera entre Android e iOS

Samsung anuncia que Quick Share en los Galaxy S26 será compatible con Apple AirDrop, permitiendo…

1 día ago

SteamOS 3.8.0 ya disponible: Perfiles de rendimiento por juego, soporte para ROG Ally y KDE Plasma 6.2.5

Valve lanza SteamOS 3.8.0 con perfiles de rendimiento personalizados por juego, soporte expandido para ASUS…

3 días ago

NVIDIA presenta Nemotron 3 Super 120B y DGX Spark: La era de los agentes de IA locales ha llegado

NVIDIA lanza nuevos modelos abiertos Nemotron 3 con hasta 120B parámetros para ejecutar agentes de…

4 días ago

GeForce NOW Ultimate eleva la VR a 90 FPS: Apple Vision Pro, Meta Quest y Pico reciben la actualización

NVIDIA actualiza GeForce NOW Ultimate con soporte para 90 FPS en dispositivos VR, mejorando la…

4 días ago

Synology DS1525+: Mi experiencia real tras meses de uso profesional

Te cuento cómo el Synology DS1525+ se ha convertido en el cerebro de mi trabajo:…

5 días ago

Intel lanza los Core Ultra 200HX Plus: Hasta un 8% más de rendimiento gaming y frecuencias die-to-die mejoradas

Intel presenta los nuevos Core Ultra 9 290HX Plus y Core Ultra 7 270HX Plus…

5 días ago