OpenAI presenta gpt-oss-120B y gpt-oss-20B: razonamiento con IA de código abierto
La idea de la compañía es que estas opciones, de una forma u otra, estén al alcance de todos y de esta forma mejorar su presencia en el mercado.
OpenAI acaba de dar un paso de gigante en el ámbito de la inteligencia artificial con el lanzamiento de gpt-oss-120B y gpt-oss-20B, dos modelos totalmente orientados al razonamiento avanzado cuya principal novedad es el abierto acceso a sus pesos bajo licencia Apache 2.0. A partir de agosto de 2025, cualquier desarrollador, empresa o entidad académica podrá experimentar y desplegar IA de primer nivel sin las limitaciones de modelos cerrados y que son muy caros.
Arquitectura de vanguardia accesible
Ambos modelos han sido construidos sobre una potente arquitectura Transformer combinada con el sistema “mixture-of-experts” (MoE), lo que les permite gestionar contextos extensos de hasta 128.000 tokens. Una de las claves del diseño de gpt-oss es su eficiencia: aunque gpt-oss-120B cuenta con 117.000 millones de parámetros y 36 bloques Transformer, solo activa poco más de 5.000 millones de ellos por token, empleando un sistema de expertos donde solo cuatro se ponen en marcha en cada paso. Esto se traduce en un uso moderado de hardware: basta con una GPU de 80 GB para la variante más potente, y apenas 16 GB para el modelo de 20.000 millones de parámetros, enfocado a entornos edge.
Estos modelos también incorporan mejoras técnicas avanzadas como Rotary Positional Embeddings (RoPE) y grouped multi-query attention, lo que reduce la latencia y optimiza el consumo de memoria, permitiendo ofrecer un rendimiento competitivo incluso en escenarios de recursos limitados.
Entrenamiento orientado al razonamiento y la robustez
La preparación de gpt-oss no se queda solo en la cantidad de datos: se ha entrenado sobre un cuerpo centrado en disciplinas STEM (ciencia, tecnología, ingeniería y matemáticas), programación y cultura general. Después del preentrenamiento, se aplican fases de ajuste supervisado y refuerzo alineadas con los estándares de OpenAI, logrando modelos versátiles y eficientes ante tareas complejas.
En las pruebas de referencia académica, como las olimpiadas matemáticas (AIME 2024 y 2025), tareas de codificación (Codeforces), el benchmark MMLU y HealthBench, gpt-oss-120B iguala o incluso supera el rendimiento de modelos propietarios como o4-mini en la mayoría de los indicadores clave de precisión. El modelo gpt-oss-20B, aunque más ligero, sorprende al acercarse o superar a modelos previos como o3-mini en matemáticas y tareas de salud.
Razonamiento configurable y cadenas de pensamiento auditables
Una de las innovaciones centrales es la posibilidad de escoger distintos “niveles de esfuerzo de razonamiento”, que se adaptan en tiempo real en función de la complejidad de la tarea, desde análisis rápidos hasta procesos de razonamiento profundo, solo con una pequeña instrucción en el mensaje del sistema. Ambos modelos, además, generan cadenas de pensamiento completas de forma autónoma, permitiendo que los responsables tecnológicos auditen el proceso y detecten posibles anomalías -o sesgos no deseados-.
Sus capacidades de llamada a funciones y “few-shot learning” facilitan la interacción con herramientas externas y flujos de trabajo automatizados, lo que resulta idóneo para tareas que requieren interactuar con bases de datos, APIs o sistemas de información complejos.
Seguridad reforzada y transparencia técnica
Esto ha sido tenido muy en cuenta, y por ello durante el preentrenamiento, los equipos filtraron cuidadosamente cualquier información relacionada con amenazas químicas, biológicas, radiológicas o nucleares. En fases posteriores, se aplicó una alineación jerárquica destinada a asegurar el rechazo consistente ante peticiones peligrosas o manipulaciones mediante prompts.
Para comprobar la fiabilidad frente a fine-tuning malicioso, OpenAI recreó variantes especializadas en biología y ciberseguridad siguiendo su propio Preparedness Framework. Tres comités externos revisaron los procesos, promoviendo mejoras incorporadas en la ficha técnica pública. Además, con vistas a la comunidad científica y de seguridad, OpenAI ha publicado tanto el informe técnico como las rúbricas de evaluación y los prompts utilizados, todo ello orientado a fortalecer y transparentar el ecosistema global de IA.
Impacto para empresas y desarrolladores
La llegada de gpt-oss-120B y gpt-oss-20B supone una auténtica democratización de la inteligencia artificial avanzada. Organizaciones de cualquier tamaño podrán automatizar análisis complejos, desarrollar asistentes inteligentes, generar código y mejorar la atención al cliente, manteniendo el control total sobre sus datos en infraestructuras locales o híbridas. La flexibilidad y el bajo coste de los nuevos modelos de OpenAI abren la puerta a que startups y pymes -donde no faltarán las españolas- para que utilicen inteligencia artificial de primer nivel sin depender de servicios externos ni licencias restrictivas.
Con esta iniciativa, OpenAI abre un nuevo capítulo para el desarrollo y el despliegue de modelos de razonamiento abiertos, sentando las bases de una IA más segura y accesible para todos.
Disponibilidad, integración y ecosistema en expansión
La apuesta de OpenAI no se queda en la publicación de los pesos del modelo en Hugging Face -en formato MXFP4, facilitando su despliegue incluso en hardware limitado-, sino que abarca implementaciones de referencia en PyTorch y Apple Metal, así como compatibilidad con plataformas cloud y locales líderes del sector. Los modelos ya están accesibles en este enlace, donde es posible probarlo todo.