OpenAI 今日正式发布面向开发者场景优化的 GPT-5-Codex 模型,该版本作为 Codex 编程助手的升级核心,已同步上线至 ChatGPT 多个订阅层级服务。此次更新重点强化了模型处理复杂编程任务时的动态计算能力,用户可在终端开发环境、集成开发工具(IDE)、GitHub 代码托管平台及 ChatGPT 对话界面中直接调用。
与传统 AI 模型依赖预设资源分配机制不同,GPT-5-Codex 引入了实时计算资源调控技术。该模型能够根据任务进展动态调整"思考时长",在处理代码生成、调试及重构等任务时,单次运算周期可从数秒延长至七小时。例如在面对需要深度逻辑推演的编程难题时,模型可能在执行五分钟后主动申请延长运算时间,这种自适应机制显著提升了复杂场景下的处理效率。
技术团队披露的测试数据显示,新模型在 SWE-bench Verified 编程基准测试及大型代码库重构任务中,性能表现均超越标准版 GPT-5。其核心优势在于突破了固定资源分配模式的限制,通过任务中途的实时评估,能够更精准地匹配不同复杂度任务所需的计算资源。这种设计特别适用于需要多步骤逻辑推导或跨模块协同的编程场景。
除动态计算能力外,模型还专门强化了代码审查功能。经过资深软件工程师参与训练的评估体系显示,GPT-5-Codex 生成的代码错误率显著降低,同时能够提供更具建设性的修改建议。其生成的代码注释被标记为"高影响力评论"的比例较前代模型提升明显,这得益于针对代码质量评估的专项优化。
OpenAI 产品团队在技术简报中强调,此次升级的核心突破在于实现了计算资源的弹性分配。不同于传统模型通过路由机制预判任务复杂度的做法,新模型能够在执行过程中持续评估任务需求,这种动态调整机制使模型在处理非常规编程问题时展现出更强的适应性。目前该模型已向 ChatGPT 高级订阅用户开放,后续计划逐步扩展至 API 接入渠道。