
La llegada de gpt-oss-120b y gpt-oss-20b, los dos nuevos modelos de inteligencia artificial presentados por OpenAI, empresa propietaria de ChatGPT, marca un hito significativo al tratarse de sistemas avanzados que pueden descargarse de forma gratuita desde la plataforma de desarrolladores Hugging Face. Según señala la compañía, ambos modelos representan “un estado del arte” en su categoría.
Esta es la primera vez que OpenAI ofrece públicamente un modelo de lenguaje abierto desde la publicación de GPT-2 hace más de cinco años. Los nuevos modelos se presentan en dos formatos: gpt-oss-120b, orientado a servidores con una única GPU Nvidia, y una versión más ligera gpt-oss-20b, capaz de operar en un ordenador portátil con 16GB de memoria. Ambos utilizan una arquitectura “mixture-of-experts” (MoE) que, según explica OpenAI, permite activar solo una fracción de sus parámetros para cada consulta, logrando mayor eficiencia: en el modelo más grande, esto significa emplear solo 5.100 millones de parámetros por token de un total de 117.000 millones.
Rendimiento y limitaciones de los modelos
Los nuevos sistemas han sido entrenados con procesos similares a los modelos propietarios de la empresa, incluyendo aprendizaje por refuerzo (RL) de alto rendimiento usando grandes clústeres de GPU Nvidia. El objetivo de OpenAI con estos modelos es situarse entre los líderes del segmento open-weight, posicionándose directamente ante la competencia que representan los laboratorios chinos de inteligencia artificial como DeepSeek, Alibaba’s Qwen y Moonshot AI, quienes “han desarrollado varios de los modelos abiertos más capaces y populares del mundo”.
En comparación con los modelos abiertos existentes, gpt-oss-120b y gpt-oss-20b han superado a competidores en pruebas como Codeforces, anotando 2.622 y 2.516 puntos respectivamente, y también obtuvieron una puntuación alta en Humanity’s Last Exam (HLE), con 19% y 17,3%. Aún así, el rendimiento fue inferior al de los modelos cerrados más potentes de OpenAI, como o3 y o4-mini.
Un aspecto clave de la propuesta es la licencia Apache 2.0, una de las más permisivas del sector, permitiendo a empresas monetizar los modelos sin necesidad de permisos adicionales o pago de regalías. No obstante, OpenAI no publicará los datos de entrenamiento utilizados para construir estos modelos, a diferencia de otras iniciativas open source. La decisión responde a un contexto de creciente litigiosidad contra los grandes proveedores de IA, con demandas relacionadas con el uso de contenido protegido por derechos de autor en los entrenamientos.
Seguridad, acceso y próximos pasos en IA abierta
En el plano técnico, los modelos de código abierto de OpenAI están limitados a tareas de texto; no pueden generar ni procesar imágenes o audio. Sin embargo, la empresa destaca que “son capaces de enviar consultas complejas a modelos en la nube”, permitiendo que los desarrolladores conecten estos modelos abiertos con alternativas más avanzadas de la propia compañía para tareas especializadas.
En cuanto a los desafíos, las pruebas de precisión revelan que los modelos abiertos de OpenAI presentan tasas de “alucinación” —errores de invención en las respuestas— más elevadas que sus versiones cerradas, con un 49% y 53% en el benchmark interno PersonQA, en comparación con el 16% del modelo o1 o el 36% de o4-mini. La compañía atribuye estos resultados a la menor cantidad de parámetros efectivamente utilizados y reconoce en su libro blanco que “esto es esperado, ya que los modelos más pequeños tienen menos conocimiento enciclopédico que los modelos avanzados”.
En términos de seguridad, OpenAI informa que retrasó el lanzamiento para examinar riesgos potenciales relacionados con el uso indebido de estos sistemas, como su empleo en ciberataques o la creación de armas, y tras evaluaciones internas y externas asegura que “no se encontró evidencia de que estos modelos alcanzaran un umbral de alta capacidad de riesgo en dichos dominios”.
El anuncio de OpenAI llega en un momento en que desarrolladores y gobiernos aumentan su presión para la adopción mundial de IA basada en “valores democráticos” y accesibles. “Nuestro objetivo es garantizar una AGI que beneficie a toda la humanidad… y el mundo podrá construir sobre una pila de IA abierta creada en Estados Unidos”, subrayó Sam Altman, director ejecutivo de la compañía. Con la escena de la inteligencia artificial abierta cada vez más competitiva, la industria observa con atención el inminente lanzamiento de modelos rivales como DeepSeek R2 y la nueva propuesta del Superintelligence Lab de Meta.
Últimas Noticias
Modelos hechas con IA: la polémica campaña de Vogue que divide a la industria de la moda
El contenido fue presentado en la edición de agosto de Vogue, acompañado por una aclaración sobre el origen artificial de las modelos

Samsung, HONOR y Xiaomi: las diferencias clave entre sus celulares con cámara de 200 MP
Este tipo de cámara no solo permiten capturar imágenes más nítidas y con mayor rango de detalle, sino que también ofrecen funciones optimizadas por inteligencia artificial

Cinco trucos para enfriar rápido el teléfono cuando se sobrecalienta
El sobrecalentamiento no solo genera incomodidad, sino que también puede poner en riesgo el buen funcionamiento y la duración de los componentes internos del teléfono

Qué significa que las personas ayuden a los mozos a recoger los platos, según la psicología y la IA
La ciencia del comportamiento humano y la inteligencia artificial analizan este gesto para entender sus causas y efectos

Cómo acceder a la papelera de Contactos de tu Android y recuperar números que borraste por error
Esta herramienta está disponible tanto desde tu móvil Android como desde la versión web
