🎯 情报来源:Simon Willison's Weblog
OpenAI在DevDay活动中正式发布GPT-5 Pro模型,该版本作为GPT-5的专业增强版,最显著的特征是将最大输出token数提升至272,000(GPT-5为128,000),同时保持400,000 token的上下文窗口和2024年9月30日的知识截止日期。模型强制启用高强度推理模式(reasoning.effort: high),目前仅通过Responses API提供服务。
实际测试显示,生成”鹈鹕骑自行车”SVG图像耗时6分8秒,消耗16个输入token和9,205个输出token。按照OpenAI定价标准(输入15美元/百万token,输出120美元/百万token),单次请求成本高达1.1美元,响应速度与成本引发开发者关注。
💡 核心要点
- 272,000最大输出token:较GPT-5提升112.5%
- 400,000 token上下文窗口:与基础版保持一致
- 强制高推理强度:默认且仅支持reasoning.effort: high模式
- 1.1美元单次请求成本:输出token费用占比99.8%
- 6分钟响应延迟:实测生成SVG图像耗时368秒
📌 情报分析
技术价值:高 – 272k输出token突破现有上限,但6分钟响应时间暴露实时交互瓶颈
商业价值:一般 – 输出token定价达基础模型8倍,高成本可能限制应用场景
趋势预测:高 – 强制高推理模式表明OpenAI正推动AI向复杂任务发展,但需优化计算效率
