Publicado el: 05/08/2025
OpenAI presenta gpt-oss: Sus nuevos modelos de OpenSources.
1. Una noticia que cambia el tono del debate
En un movimiento muy esperado, OpenAI presentó hoy gpt-oss-120b y gpt-oss-20b, sus primeros modelos de “pesos abiertos” desde 2019. A diferencia de un lanzamiento totalmente open-source, la compañía libera los parámetros entrenados y una licencia permisiva, pero mantiene en privado el código completo de entrenamiento y el conjunto de datos. El objetivo declarado es facilitar la experimentación y la ejecución local sin renunciar a ciertos controles de seguridad2. ¿Qué significa que los pesos sean abiertos?
Compartir los pesos permite que cualquier desarrollador descargue el modelo, lo ejecute en su propio hardware y lo ajuste con fine-tuning completo. Eso abarata la puesta en marcha de nuevos proyectos, elimina la dependencia de la nube en muchos casos y abre la puerta a auditorías externas más rigurosas.3. Dos tamaños, una misma ambición
-
gpt-oss-120b está pensado para centros de datos o estaciones de trabajo potentes.
-
gpt-oss-20b busca ordenadores de sobremesa e incluso dispositivos móviles de gama alta.
En ambos casos, OpenAI subraya que se ha optimizado la eficiencia de inferencia para que la experiencia sea fluida fuera de la nube.
4. Licencia Apache 2.0, sin letra pequeña
La elección de Apache 2.0 elimina obligaciones de abrir modificaciones, algo clave para empresas que quieran integrar IA en productos cerrados. También reduce el riesgo de litigios por patentes, un freno habitual en proyectos corporativos.5. Rendimiento: números fáciles de comprender
OpenAI compartió resultados en varios exámenes de referencia. Los más comentados son:-
MMLU (conocimiento multitarea): 90 % para el modelo grande y 85 % para el pequeño.
-
GPQA Diamond (razonamiento de posgrado): 80 % y 71 % respectivamente.
-
AIME 2024 (matemática de competición): 96 % en ambas versiones. OpenAI
6. Un guiño explícito a la comunidad open-source
La nota oficial subraya que los modelos “superan a otros de tamaño similar” y están “diseñados para tareas agenticas”, es decir, para resolver problemas complejos paso a paso usando herramientas externas7. Seguridad antes que velocidad
Según Financial Times, el lanzamiento se retrasó dos veces para completar pruebas de riesgo: se simuló el uso del modelo con fines maliciosos y se consultó a expertos externos antes de ponerlo en línea. OpenAI afirma que el filtrado incorporado bloquea instrucciones dañinas y facilita el reporte de abusos.8. Reacciones inmediatas en redes
Sam Altman celebró en X (antes Twitter) que gpt-ossrinde al nivel de o4-mini y corre en un portátil
9. Por qué esto importa a desarrolladores y pymes
-
Coste y latencia: ejecutar localmente evita cuotas por token y reduce retrasos de red.
-
Privacidad: los datos sensibles no salen de la organización.
-
Adaptación rápida: el fine-tuning directo sobre los pesos acelera los ciclos de prueba.
10. Una invitación al ecosistema de hardware
NVIDIA, AMD y Qualcomm ya han destacado compatibilidad con sus GPU y chips móviles. Para quien no disponga de aceleradores, la versión de 20 mil millones de parámetros puede correr (con paciencia) sólo en CPU, lo que baja la barrera de entrada.11. No todo es color de rosa
-
Los modelos son sólo de texto; no entienden imágenes ni audio.
-
El tamaño del fichero (varios cientos de GB para 120b) complica la descarga con conexiones lentas.
-
Al no publicar datos de entrenamiento, ciertos sesgos podrían seguir escondidos.
12. ¿Supone una presión para la competencia?
Expertos ven el movimiento como respuesta a la oleada de lanzamientos chinos —DeepSeek, Qwen, Moonshot— que habían acaparado atención en el terreno “open”. Con gpt-oss, OpenAI busca retomar la narrativa de la apertura responsable.13. Lo que viene
Perspectiva Utilia
Desde Utilia observamos con interés este avance porque reduce los costes de acceso a IA de alto nivel y facilita que las empresas canarias mantengan los datos más sensibles dentro de la isla. También vemos la oportunidad de acelerar pruebas piloto de automatización sin tiempos de espera ligados a la nube. En definitiva, cuanto más abierta sea la tecnología, más rápido podrán las pymes convertir la IA en valor real.