DeepSeek-V3.2-Exp发布:DSA稀疏注意力机制+双版本算子开源,API价格5折起

🎯 情报来源:量子位

2025年9月29日,DeepSeek正式发布DeepSeek-V3.2-Exp模型,引入全新DeepSeek Sparse Attention(DSA)稀疏注意力机制,并开源TileLang和CUDA双版本GPU算子。官方同步推出API价格5折优惠,覆盖App、网页端和小程序。

DSA机制首次实现细粒度注意力,在保持模型性能(与V3.1-Terminus测评持平)的同时,显著提升128K长文本处理效率。论文数据显示,其推理成本低于前代,尤其在解码阶段。同步开源的TileLang版本算子为研究社区提供快速迭代支持。

💡 核心要点

  • DSA稀疏注意力机制:128K长文本推理成本降低,解码效率提升
  • 双版本算子开源:同步发布TileLang(研究友好)和CUDA(高效生产)版本
  • API价格直降50%:新模型服务即时生效
  • 性能对标V3.1-Terminus:各领域测评表现持平
  • 技术栈迭代:TileLang作为精度基线,CUDA实现最终优化

📌 情报分析

技术价值:高 – DSA机制实现细粒度注意力创新,论文数据验证长文本效率提升;双版本算子兼顾研发与生产需求。

商业价值:极高 – API价格腰斩策略(5折)直接刺激采用率,同步覆盖全终端,商业化路径清晰。

趋势预测:高 – 竞品GLM-4.6即将发布(GLM-4.5已标记为旧版),节前密集更新显示行业技术迭代加速。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索