OpenAI presenta GPT-5.3-Codex-Spark su primer modelo capaz de codificar en tiempo real con respuestas "ultrarrápidas"

La nueva herramienta de la empresa estadounidense permite editar instrucciones, afinar procesos y ajustar interfaces mientras ejecuta código con agilidad, ofreciendo interacciones instantáneas gracias a hardware especializado y una colaboración con la compañía Cerebras

Guardar

La colaboración entre OpenAI y la empresa Cerebras ha permitido que el nuevo modelo de inteligencia artificial Codex-Spark ejecute código con una latencia significativamente reducida, utilizando el motor Wafer Scale Engine 3, un acelerador diseñado para optimizar procesos de inferencia en IA. Esta característica ha posibilitado respuestas rápidas durante la codificación, lo que ofrece una experiencia cercana al tiempo real para los usuarios que requieren una interacción casi instantánea con la inteligencia artificial. El modelo, denominado GPT-5.3-Codex-Spark, representa un avance técnico importante por parte de OpenAI en la adaptación de hardware específico para necesidades de software avanzadas.

Según publicó OpenAI en su blog, Codex-Spark, que fue presentado como una vista previa de investigación para usuarios de ChatGPT Pro, incorpora una ventana de contexto de 128.000 tokens solo de texto, lo que permite trabajar tanto tareas extensas a lo largo del tiempo como procesos que se resuelven en el momento. La tecnología posibilita realizar ediciones concretas en el código, ajustar instrucciones y modificar interfaces en medio del trabajo de programación, sin frenar el flujo de ejecución, y ofrece respuestas que según la propia empresa cuentan con una velocidad de entrega superior a los 1.000 tokens por segundo.

OpenAI detalló que uno de los principales aportes de GPT-5.3-Codex-Spark es facilitar la colaboración humano-máquina: el usuario puede modificar preguntas, interrumpir procesos o redefinir objetivos en cualquier etapa de la ejecución de tareas, recibiendo contestaciones inmediatas que optimizan el desarrollo del código. Sin embargo, aclaró que el modelo ejecuta solo aquellas modificaciones mínimas necesarias para mantener su velocidad, y no realiza pruebas automáticas del código generado a menos que se le indique de forma explícita.

La aparición de Codex-Spark llega apenas una semana después de la presentación de GPT-5.3-Codex, el modelo de codificación más avanzado hasta el momento que, según la compañía dirigida por Sam Altman, resultó clave en el propio desarrollo de la nueva versión optimizada para tiempo real. Al respecto, OpenAI remarcó que Codex-Spark ha excedido el desempeño de su predecesor en pruebas de evaluación de ingeniería de software, como los benchmarks SWE-Bench Pro y Terminal-Bench 2.0, logrando completar tareas en menos tiempo.

Según detalló el medio, la puesta en marcha de GPT-5.3-Codex-Spark está orientada en esta etapa a usuarios con acceso a las versiones más recientes de la aplicación Codex dentro de ChatGPT Pro. El acceso se otorga en modalidad de prueba de investigación, permitiendo a los desarrolladores experimentar con nuevas formas de interacción y explorando la capacidad de respuesta en tiempo real que ofrece el sistema.

El modelo lanzado por OpenAI prioriza la eficiencia gracias a su integración con el hardware especializado de Cerebras, lo cual implica que cuenta con un límite de velocidad independiente. Este parámetro, según informó OpenAI, podrá ajustarse conforme a la demanda de uso durante el periodo de experimentación. La estrategia detrás de esta limitación persigue tanto garantizar el funcionamiento fluido del sistema como estudiar la escalabilidad de la solución ante distintos escenarios de utilización.

El anuncio de Codex-Spark subraya la apuesta de OpenAI por dotar a sus herramientas de mayor agilidad y precisión para entornos de programación. La empresa ha señalado que el resultado inmediato en las respuestas permite agilizar no solo el desarrollo, sino también la corrección y la mejora de procesos e interfaces en ciclos de trabajo colaborativos. Todo este avance es posible gracias a la capacidad del hardware dedicado y a la implementación del modelo altamente optimizado para tiempo real, de acuerdo con la explicación proporcionada en el comunicado oficial de OpenAI.

Con la disponibilidad de este modelo para los primeros usuarios, OpenAI espera recabar información sobre el comportamiento y la utilidad práctica del Codex-Spark en entornos reales, así como pulir las funciones fundamentales antes de su eventual despliegue a una base de usuarios más amplia. De acuerdo con lo reportado por el medio, la compañía continuará evaluando el ajuste de los parámetros de rendimiento y las posibilidades de integración en otras plataformas y modelos de trabajo, basándose en los resultados obtenidos durante este periodo de vista previa.