Qwen开源4B端侧大模型性能突破:AIME25得分81.3超越Claude 4 Opus,树莓派可运行

🎯 情报来源:量子位

阿里巴巴Qwen团队于2025年8月7日深夜开源两款4B参数端侧大模型Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507,在性能表现上实现重大突破。其中推理专用模型Qwen3-4B-Thinking-2507在AIME25数学测评中获得81.3分,超越Claude 4 Opus(75.5分)和Gemini 2.5 Pro(49.8~88.0分区间),且参数量仅为前者的1/50。

技术参数显示,两款模型均支持256K长上下文(可扩展至1M),其中4B-Thinking版本在GPQA等专业测试中达到30B参数MoE模型水平。官方强调该模型可在树莓派4B等极小型设备通过GGUF量化版本部署,内存占用较30B模型减少7.5倍。

💡 核心要点

  • 性能突破:4B-Thinking模型AIME25得分81.3,超越Claude 4 Opus(75.5)
  • 端侧适配:支持树莓派4B部署,GGUF量化版内存占用较30B模型降低7.5倍
  • 长上下文:256K标准上下文支持,可扩展至1M长度
  • 推理优化:Thinking版本在GPQA测试达到30B参数MoE模型同等水平
  • 多平台支持:Ollama、LMStudio等主流部署工具已适配

📌 情报分析

技术价值|评级:极高
4B模型在专业测评中超越数十倍参数量的闭源模型,验证了稀疏化架构的突破性进展。256K原生上下文支持表明在注意力机制优化方面取得实质性进展。

商业价值|评级:高
端侧部署能力直接覆盖IoT、移动设备等万亿级市场,实测树莓派兼容性为边缘计算场景提供切实解决方案。

趋势预测|评级:高
模型小型化竞赛将加速,预计6个月内8B参数模型将实现当前30B模型性能。开源策略可能迫使主流厂商调整产品路线图。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索