Qwen3-235B-2507开源模型升级:235B参数性能超Kimi K2 1T,AIME25准确率提升45.6%

🎯 情报来源:量子位

阿里通义千问于7月22日发布Qwen3-235B-A22B-2507开源模型升级,该模型总参数量235B(激活参数22B),仅为Kimi K2 1T参数规模的1/4,却在基准测试中全面超越Kimi K2和DeepSeek-V3。官方特别强调,此次升级重点优化了256K长文本理解能力,AIME25数学推理准确率从24.7%跃升至70.3%,增幅达45.6%。

💡 核心要点

  • 参数效率:235B总参数模型性能超越1T级竞品,激活参数仅22B
  • 性能突破:AIME25数学准确率提升45.6个百分点至70.3%
  • 架构革新:采用MoE架构+64查询头GQA机制,128专家中动态激活8个
  • 长文本优化:原生支持262K上下文,长文本理解能力显著增强
  • 开发策略:拆分Instruct/Thinking模型训练,当前仅开放非思考模式

📌 情报分析

技术价值:极高
模型在参数效率(22B激活参数实现SOTA)、长文本处理(262K上下文)和数学推理(AIME25 70.3%)三个维度同时突破,验证了MoE+GQA架构组合的技术可行性。

商业价值:高
相比Kimi K2的1T参数需求,22B激活参数大幅降低推理成本。但当前仅开放非思考模式,商业化场景拓展能力待验证。

趋势预测:高
结合官方预告的”大招”及Llama闭源背景,中国开源模型已形成Kimi/Qwen/DeepSeek三强竞逐格局,参数效率竞赛将取代单纯规模扩张。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索