¡Atención, comunidad geek! OpenAI ha sacudido el mundo de la inteligencia artificial con el lanzamiento de sus primeros modelos de código abierto en años: gpt-oss-120b y gpt-oss-20b. Este movimiento estratégico representa un cambio radical para la compañía, que hasta ahora se había mantenido firme en su postura de modelos cerrados. ¿La razón detrás de este giro? Parece que el éxito de DeepSeek R1, el modelo chino que demostró ser potente y eficiente, ha tenido mucho que ver.
OpenAI y el Dilema del Código Abierto
Durante mucho tiempo, OpenAI justificó el cierre de sus modelos, como GPT-2, argumentando motivos de seguridad. Sin embargo, competidores como Meta con Llama, y especialmente las empresas chinas DeepSeek, Qwen y Kimi, ganaron terreno en el ecosistema de código abierto. La pregunta era: ¿podía OpenAI seguir ignorando esta tendencia?
El Impacto de DeepSeek R1
El verdadero punto de inflexión llegó con DeepSeek R1. Este modelo demostró que era posible crear sistemas de razonamiento avanzados con una fracción del coste de los modelos estadounidenses. Según Xataka, Sam Altman, CEO de OpenAI, reconoció la necesidad de una nueva estrategia de código abierto, y los modelos gpt-oss son la respuesta.
gpt-oss-120b y gpt-oss-20b: Características Clave
Veamos qué ofrecen estos nuevos modelos:
- gpt-oss-120b: Este modelo, el más grande, puede funcionar en una sola GPU de 80 GB con solo 5.100 millones de parámetros activos de sus 117.000 millones totales.
- gpt-oss-20b: El hermano pequeño puede ejecutarse incluso en un portátil con 16 GB de memoria RAM.
Ambos modelos utilizan una arquitectura de mezcla de expertos (MoE), que activa solo una parte de los parámetros para cada consulta, optimizando así el rendimiento.
Rendimiento y Limitaciones
¿Cómo se comparan estos modelos con otros en el mercado? Los benchmarks independientes sitúan a gpt-oss-120b con una puntuación de 58 en el Índice de Inteligencia, superando a o3-mini, pero por debajo de o3 y o4-mini. En tareas de programación, alcanza 2622 puntos en Codeforces, superando a DeepSeek R1, que tiene un modelo más pesado.
Sin embargo, hay algunas limitaciones importantes:
- OpenAI no ha publicado los datos de entrenamiento, manteniendo cierto secretismo.
- Los modelos se limitan solo a texto, sin capacidades multimodales.
- Las alucinaciones son mayores que en los modelos propietarios de OpenAI (49% y 53% frente al 16% de o1).
Implicaciones Estratégicas y Políticas
El lanzamiento de gpt-oss no solo responde a la competencia, sino también a presiones políticas. La administración Trump instó a las empresas estadounidenses a liberar más tecnología para promover una IA alineada con los valores americanos. Además, OpenAI ha colaborado con socios como Orange, Snowflake y AI Sweden para validar casos de uso reales.
Disponibilidad y Próximos Pasos
Los modelos están disponibles bajo licencia Apache 2.0 en plataformas como Hugging Face, con soporte nativo en herramientas como Ollama y LM Studio. OpenAI también ha organizado un Red Teaming Challenge con 500.000 dólares en premios para identificar riesgos de seguridad.
Conclusión: ¿El Comienzo de una Nueva Era para OpenAI?
Con el lanzamiento de los modelos gpt-oss, OpenAI reconoce que la innovación abierta es esencial para mantenerse competitivo. Este es un paso importante hacia la democratización de la IA, aunque con ciertas reservas. Queda por ver cómo evolucionará esta estrategia y si OpenAI liberará más datos y capacidades en el futuro.
Fuente: Xataka
Leave a Comment