DeepSeek推出V3.2-Exp大模型:API成本直降50%,稀疏注意力技术重塑性价比标杆

🎯 情报来源:AI | VentureBeat

DeepSeek近期发布实验性大语言模型DeepSeek-V3.2-Exp,在保持与前代V3.1-Terminus相当性能基准(MMLU-Pro 85.0,AIME 2025达89.3)的同时,通过API实现成本大幅降低。输入token价格降至每百万0.028美元(缓存命中),降幅达50%,128K长上下文处理成本控制显著优于行业水平。

该模型采用突破性DeepSeek稀疏注意力(DSA)技术,通过”闪电索引器”动态选择关键token,使计算负载与序列长度呈亚线性增长。开源版本以MIT许可证发布,配套TileLang研究框架及针对NVIDIA H200的优化内核,支持企业级部署。

💡 核心要点

  • 成本突破:API输入价格降至$0.028/百万token(缓存命中),长上下文成本曲线显著平缓化
  • 技术革新:稀疏注意力机制降低60%长序列计算负载,128K上下文内存占用减少45%
  • 性能保持:基准测试中MMLU-Pro维持85.0,Codeforces评分提升至2121(前代2046)
  • 开源策略:685亿参数模型全权重MIT许可开放,配套SGLang/vLLM生态系统支持
  • 训练优化:GRPO强化学习统一框架解决多阶段训练”灾难性遗忘”问题

📌 情报分析

技术价值:极高
DSA架构实现注意力计算复杂度从O(n²)降至O(n log n),论文显示128K上下文显存需求减少3.2倍。联合蒸馏与GRPO训练框架属行业首创。

商业价值:高
API价格仅为Claude Haiku的3.5%,但需注意缓存未命中时成本跳升至$0.28。开源策略可能加速中国以外市场渗透率,但地缘因素带来部署复杂度。

趋势预测:高
稀疏注意力技术路线或引发行业跟进,LMSYS数据表明该架构在200K+超长上下文场景有显著成本优势。企业自建模型成本预计可再降30-40%。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索