Logo Utilia Sphere

Publicado el: 05/08/2025

OpenAI presenta gpt-oss: Sus nuevos modelos de OpenSources.

1. Una noticia que cambia el tono del debate

En un movimiento muy esperado, OpenAI presentó hoy gpt-oss-120b y gpt-oss-20b, sus primeros modelos de “pesos abiertos” desde 2019. A diferencia de un lanzamiento totalmente open-source, la compañía libera los parámetros entrenados y una licencia permisiva, pero mantiene en privado el código completo de entrenamiento y el conjunto de datos. El objetivo declarado es facilitar la experimentación y la ejecución local sin renunciar a ciertos controles de seguridad

2. ¿Qué significa que los pesos sean abiertos?

Compartir los pesos permite que cualquier desarrollador descargue el modelo, lo ejecute en su propio hardware y lo ajuste con fine-tuning completo. Eso abarata la puesta en marcha de nuevos proyectos, elimina la dependencia de la nube en muchos casos y abre la puerta a auditorías externas más rigurosas. 

3. Dos tamaños, una misma ambición

  • gpt-oss-120b está pensado para centros de datos o estaciones de trabajo potentes.

  • gpt-oss-20b busca ordenadores de sobremesa e incluso dispositivos móviles de gama alta.
    En ambos casos, OpenAI subraya que se ha optimizado la eficiencia de inferencia para que la experiencia sea fluida fuera de la nube.


4. Licencia Apache 2.0, sin letra pequeña

La elección de Apache 2.0 elimina obligaciones de abrir modificaciones, algo clave para empresas que quieran integrar IA en productos cerrados. También reduce el riesgo de litigios por patentes, un freno habitual en proyectos corporativos.

5. Rendimiento: números fáciles de comprender

OpenAI compartió resultados en varios exámenes de referencia. Los más comentados son:
  • MMLU (conocimiento multitarea): 90 % para el modelo grande y 85 % para el pequeño.

  • GPQA Diamond (razonamiento de posgrado): 80 % y 71 % respectivamente.

  • AIME 2024 (matemática de competición): 96 % en ambas versiones. OpenAI

La lectura rápida es que gpt-oss-120b se acerca al rendimiento del modelo propietario o4-mini de la misma OpenAI. 

6. Un guiño explícito a la comunidad open-source

La nota oficial subraya que los modelos “superan a otros de tamaño similar” y están “diseñados para tareas agenticas”, es decir, para resolver problemas complejos paso a paso usando herramientas externas

7. Seguridad antes que velocidad

Según Financial Times, el lanzamiento se retrasó dos veces para completar pruebas de riesgo: se simuló el uso del modelo con fines maliciosos y se consultó a expertos externos antes de ponerlo en línea. OpenAI afirma que el filtrado incorporado bloquea instrucciones dañinas y facilita el reporte de abusos.

8. Reacciones inmediatas en redes

Sam Altman celebró en X (antes Twitter) que gpt-oss 
rinde al nivel de o4-mini y corre en un portátil
 apenas siete minutos después de la publicación. En menos de una hora, los mensajes acumularon miles de interacciones, señal clara de que la comunidad esperaba un paso así.

9. Por qué esto importa a desarrolladores y pymes

  • Coste y latencia: ejecutar localmente evita cuotas por token y reduce retrasos de red.

  • Privacidad: los datos sensibles no salen de la organización.

  • Adaptación rápida: el fine-tuning directo sobre los pesos acelera los ciclos de prueba.

10. Una invitación al ecosistema de hardware

NVIDIA, AMD y Qualcomm ya han destacado compatibilidad con sus GPU y chips móviles. Para quien no disponga de aceleradores, la versión de 20 mil millones de parámetros puede correr (con paciencia) sólo en CPU, lo que baja la barrera de entrada.

11. No todo es color de rosa

  • Los modelos son sólo de texto; no entienden imágenes ni audio.

  • El tamaño del fichero (varios cientos de GB para 120b) complica la descarga con conexiones lentas.

  • Al no publicar datos de entrenamiento, ciertos sesgos podrían seguir escondidos.

12. ¿Supone una presión para la competencia?

Expertos ven el movimiento como respuesta a la oleada de lanzamientos chinos —DeepSeek, Qwen, Moonshot— que habían acaparado atención en el terreno “open”. Con gpt-oss, OpenAI busca retomar la narrativa de la apertura responsable.

13. Lo que viene

La compañía ha prometido una system card ampliada con más métricas de robustez y un “modo de razonamiento alto” ajustable. También se esperan tutoriales oficiales para Ollama y vLLM en las próximas semanas. 

Perspectiva Utilia

Desde Utilia observamos con interés este avance porque reduce los costes de acceso a IA de alto nivel y facilita que las empresas canarias mantengan los datos más sensibles dentro de la isla. También vemos la oportunidad de acelerar pruebas piloto de automatización sin tiempos de espera ligados a la nube. En definitiva, cuanto más abierta sea la tecnología, más rápido podrán las pymes convertir la IA en valor real.