OpenAI发布GPT-5.3-Codex-Spark主打超低延迟实时编程
OpenAI在2月12日发布GPT-5.3-Codex-Spark,并将其作为GPT-5.3-Codex的更小版本,定位为Codex里的“实时编程”研究预览模型。官方给出关键参数:该模型在超低延迟硬件上可达到每秒超过1000 tokens的输出速度,文本单模态,具备128k上下文窗口;在交互方式上,它默认采取更轻量的工作风格,倾向于做最小且针对性的修改,不会自动运行测试,除非用户明确提出。该版本强调可以在编码过程中随时打断、改指令或重定向任务,让同一段代码在“改一点—看结果—再改”的循环里保持连贯;示例场景涵盖制作小游戏、规划项目、翻译文件等。OpenAI同时披露了为降低整体延迟而做的端到端改造:通过持久WebSocket连接与对Responses API的优化,单次客户端/服务端往返开销降低约80%,每个token的额外开销降低约30%,首个可见token的到达时间缩短约50%,并计划把这一路径推广为所有模型的默认方式。在可用性方面,Codex-Spark在发布当日开始向ChatGPT Pro用户逐步开放,可在最新版本的Codex应用、CLI以及VS Code扩展中使用;由于依赖专门的低延迟硬件,研究预览期间单独设定速率限制,使用量不计入标准限额,高峰期可能出现排队或临时限流。OpenAI还说明该模型沿用主线模型的安全训练,并在常规部署评估中做了网络安全等基线测试。官方还引用SWE-Bench Pro与Terminal-Bench 2.0两项面向软件工程代理能力的基准测试,指出Codex-Spark在保持较强完成度的同时,用时明显短于GPT-5.3-Codex。
支持率>95%