OpenAI publica gpt-oss-120b y gpt-oss-20b: pesos abiertos para inferencia local

SAPIENSDATAAI - MIGUEL MARÍN PASCUAL
gpt-oss-120bgpt-oss-20bOpenAIMixture of Experts (MoE)Apache 2.0contexto 131072 tokensNvidia A100 80GBinferencia localHugging FaceONNX Runtime

OpenAI ha publicado gpt-oss-120b y gpt-oss-20b, dos modelos de lenguaje de pesos abiertos diseñados para ofrecer razonamiento avanzado y mayor transparencia para desarrolladores. Publicados bajo la licencia Apache 2.0, estos modelos marcan la primera liberación pública de pesos de OpenAI a gran escala desde GPT‑2 (2019) y están concebidos para ejecutarse tanto en infraestructuras empresariales como en hardware de consumo, permitiendo inferencia local, personalización y auditoría de los parámetros.

Especificaciones técnicas clave

Los dos modelos comparten una familia arquitectónica optimizada para eficiencia y razonamiento, pero difieren en escala y requisitos de hardware.

  • gpt-oss-120b: ≈117 mil millones de parámetros; diseñado para ejecutarse en una sola GPU Nvidia A100 de 80 GB.
  • gpt-oss-20b: ≈21 mil millones de parámetros; objetivo: dispositivos con ~16 GB de memoria (laptops de consumo y hardware local empresarial).
  • Longitud de contexto: soporte de contextos muy largos (hasta 131,072 tokens según la documentación), lo que facilita tareas con historial extenso o documentos largos.
  • Compatibilidad y formatos: disponibles para descarga en plataformas como Hugging Face, AWS, Azure y Databricks; compatibles con ONNX Runtime y entornos como Ollama para despliegue local.

Arquitectura y diseño para eficiencia

Ambos modelos emplean una arquitectura Transformer con una implementación de mezcla de expertos (Mixture of Experts, MoE). En MoE, distintos “expertos” —subconjuntos de parámetros— se activan selectivamente por entrada, de modo que solo una fracción del total de parámetros participa en cada paso de inferencia. Este enfoque reduce el coste computacional y la latencia por token en comparación con modelos densos del mismo tamaño aparente, y explica por qué el gpt-oss-120b puede ejecutar cargas pesadas en una única A100 de 80 GB.

Además, OpenAI ha integrado variantes de atención para mejorar escalabilidad y rendimiento en contextos largos: una combinación de atención densa y dispersa localmente acotada, así como atención multi-consulta agrupada. Estas optimizaciones contribuyen tanto a la eficiencia de memoria como a la velocidad de inferencia en secuencias largas.

Capacidades de razonamiento y características de uso

Los modelos están orientados a flujos de trabajo agénticos y de razonamiento en cadena de pensamiento (chain-of-thought). Según la documentación y primeros benchmarks, gpt-oss-120b muestra un desempeño competitivo en tareas de razonamiento y consultas relacionadas con salud, mientras que gpt-oss-20b apunta a equivaler a modelos compactos previos de OpenAI en escenarios donde el hardware es limitado.

  • Soporte para salidas estructuradas y control del “esfuerzo de razonamiento” (ajustar cuándo y cuánto razonamiento en cadena aplicar).
  • Integración prevista con herramientas (búsqueda web, ejecución de código Python, etc.) en flujos agénticos que requieren acceso a datos externos y a ejecución de tareas.
  • Diseño pensado para permitir personalización y afinamiento local por parte de desarrolladores e investigadores.

Rendimiento y comparación con otros modelos abiertos

Los primeros benchmarks publicados y resúmenes de prensa indican que gpt-oss-120b compite con modelos de la familia compacta de OpenAI (por ejemplo, o4‑mini) en tareas de razonamiento y consultas de dominio específico, aunque el comportamiento varía según la métrica: en algunas pruebas el 120b supera a alternativas en salud o matemáticas, en otras muestra ligera desventaja en matemáticas y programación frente a modelos especializados. En términos de eficiencia por hardware, OpenAI posiciona ambos modelos como más rentables frente a alternativas abiertas contemporáneas como Gemma o DeepSeek‑R1.

Despliegue y requisitos de hardware

Una de las señales más destacadas de esta liberación es la optimización para ejecución local y en hardware relativamente modesto:

  • gpt-oss-120b: ejecución en una GPU A100 de 80 GB para inferencia práctica en una sola tarjeta.
  • gpt-oss-20b: pensada para dispositivos con ~16 GB de memoria, ampliando la posibilidad de inferencia local en PCs y servidores empresariales pequeños.
  • Soporte de plataformas: disponibilidad en Hugging Face, AWS, Azure, Databricks y compatibilidad con runtimes como ONNX y Ollama para integraciones locales y en nube.

Licencia, accesibilidad y transparencia

Los pesos se publican bajo licencia Apache 2.0, lo que permite uso, modificación y redistribución con pocas restricciones. Esto facilita auditoría, investigación, personalización y despliegue empresarial sin las barreras de modelos cerrados. La liberación incluye además una ficha técnica y de modelo que documenta capacidades, límites y recomendaciones de uso.

Seguridad, riesgos y red teaming

OpenAI ha puesto especial énfasis en la seguridad: las notas oficiales indican que los datos de entrenamiento se filtraron para eliminar información sensible y que los modelos fueron evaluados para resistencia a ataques de inyección de prompts y otras clases de abuso. Aun así, la organización reconoce explícitamente los riesgos intrínsecos de publicar pesos abiertos: actores malintencionados podrían afinar los modelos para eludir mitigaciones, optimizarlos para causar daño o construir variantes inseguras, sin que OpenAI pueda revocar acceso o aplicar parches centralizados sobre pesos distribuidos.

Para evaluar y reforzar la seguridad, OpenAI lanza iniciativas de red teaming público: por ejemplo, un desafío de red teaming centrado en gpt-oss-20b con recompensas (hasta $500,000) para descubrir vulnerabilidades y vectores de abuso. Estas medidas buscan combinar la apertura con pruebas externas intensivas antes de la adopción masiva.

Implicaciones para desarrolladores y organizaciones

La disponibilidad de pesos abiertos de modelos razonadores de alto rendimiento cambia el equilibrio entre control y dependencia de APIs: las empresas pueden ahora ejecutar modelos avanzados en sitio, auditar los pesos, personalizar el comportamiento y reducir costes de inferencia a gran escala. Al mismo tiempo, la necesidad de buenas prácticas de seguridad y gobernanza aumenta: equipos de ML deberán gestionar riesgos de fine‑tuning adverso, controlar accesos, monitorizar salidas y aplicar filtros o capas de seguridad adicionales cuando los modelos se integren en productos sensibles.

  • Beneficios: transparencia, capacidad de personalización, reducción de costes operativos y posibilidad de inferencia offline.
  • Retos: mayores responsabilidades de seguridad para los operadores, potencial de maluso y necesidad de infra y procesos para gobernanza del modelo.

Contexto histórico y estratégico

Esta liberación representa un movimiento estratégico de OpenAI hacia mayor apertura en determinadas familias de modelos, contrastando con su enfoque anterior más cerrado a partir de lanzamientos comerciales. Al volver a publicar pesos abiertos a gran escala, OpenAI responde tanto a demandas de la comunidad de investigación como a la competencia en el ecosistema de modelos abiertos, habilitando a terceros para innovar y auditar modelos de razonamiento avanzados.

Conclusión

gpt-oss-120b y gpt-oss-20b ofrecen un balance interesante entre capacidad de razonamiento, eficiencia y accesibilidad: arquitectura MoE para mantener bajos costes de inferencia, compatibilidad con hardware de consumo y características orientadas a flujos agénticos y razonamiento en cadena. La liberación bajo Apache 2.0 y la documentación pública facilitan la adopción y auditoría, pero también transfieren a implementadores la responsabilidad de mitigar riesgos de seguridad y gobernanza. Para desarrolladores y organizaciones, estos modelos abren nuevas opciones operativas —desde prototipos locales hasta despliegues empresariales— siempre que se acompañen de controles y prácticas de seguridad robustas.

Solicitar diagnóstico gratuito
Asesor VirtualAsesor Virtual 24h