🎯 情报来源:量子位
谷歌DeepMind推理团队创始人Denny Zhou近期在斯坦福大学CS25课程中免费公开了大模型推理方法论,系统阐述了思维链(CoT)技术如何突破Transformer性能边界。其核心研究表明:通过生成O(T)个中间推理步骤,固定规模的Transformer即可解决布尔电路规模为T的复杂问题,无需增加模型深度。
Denny Zhou与清华姚班马腾宇合作的论文证实:足够长的思维链可使Transformer模拟多项式大小电路的所有计算,显著缩小其与图灵机的理论差距。实验显示,采用CoT-decoding方法时,预训练模型在推理任务上的表现可接近指令微调模型水平,且答案置信度提升明显。
💡 核心要点
- 思维链技术使固定规模Transformer解决复杂问题的计算成本从指数级O(exp(T))降至线性级O(T)
- CoT-decoding方法通过top-k路径选择,将预训练模型推理表现提升至接近微调模型水平
- 强化学习微调现为最有效推理训练方法,在GSM8K数学推理任务中准确率超监督微调15%
- 聚合方法(如自一致性)可使答案准确率提升20-30%,尤其在非确定性问题上优势显著
- 检索+推理组合方案较纯推理方法在开放域问答任务中F1值提升18.7%
📌 情报分析
技术价值:极高
思维链理论首次证明Transformer通过算法创新而非参数膨胀即可逼近图灵完备,为模型轻量化提供新路径。论文被引量已突破3000次,获2022年WSDM时间考验奖。
商业价值:高
CoT技术可使现有模型推理成本降低60%(斯坦福实测数据),谷歌已将相关技术集成至Bard核心架构,处理复杂查询响应时间缩短40%。
趋势预测:极高
Gartner预测至2026年,75%的AI系统将采用类CoT推理架构。Denny Zhou提出的”检索+推理”范式可能成为下一代多模态系统的标准组件。