智谱开源9B小模型GLM-4.1V-9B-Thinking:28项评测23项SOTA,性能超72B大模型

🎯 情报来源:量子位

2025年7月2日,智谱正式发布并开源视觉语言模型GLM-4.1V-9B-Thinking。该模型仅9B参数规模,却在28项评测中斩获23项SOTA,成为10B级别效果最佳的VLM模型。值得注意的是,在18项评测中,其性能甚至超越参数量8倍于自身的Qwen-2.5-VL-72B模型。

模型核心突破在于引入思维链(Chain-of-Thought)推理机制和课程采样强化学习(RLCS)技术,实现深度推理能力。同步披露的还有浦东创投集团和张江集团对智谱的10亿元战略投资,首期交割即将完成。

💡 核心要点

  • 参数量仅9B却在28项评测中拿下23项SOTA,10B级别最佳VLM
  • 18项评测性能超越72B参数竞品(Qwen-2.5-VL-72B)
  • 获10亿元战略投资(浦东创投+张江集团)
  • 支持2小时长视频解析、数学解题、专业文档处理等8类实用场景
  • 采用三维卷积视觉编码器,处理效率较传统方法提升200%

📌 情报分析

技术价值:极高
模型架构创新显著:ViT视觉编码器支持4K超清输入,三维旋转位置编码实现时空维度理解,32K上下文窗口处理能力较主流模型提升60%

商业价值:高
10亿元融资背书验证市场潜力,8类落地场景(含金融、政务等高价值领域)已形成完整API产品矩阵,MaaS平台即时可用

趋势预测:高
小模型高性能化趋势确立:9B参数达到商用级效果,推理成本可降低80%。开源策略将加速多模态推理技术生态构建

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索