蚂蚁集团发布万亿参数开源推理模型Ring-1T,基准测试仅次于GPT-5

🎯 情报来源:AI | VentureBeat

蚂蚁集团近日公布其万亿参数开源推理模型Ring-1T的技术细节,该模型以每token激活约500亿参数的架构,在数学推理、代码生成等任务中实现当前最优性能。作为首个总参数达1万亿的开源推理模型,Ring-1T采用与Ling 2.0相同的架构,支持12.8万token上下文长度,在AIME 25基准测试中以93.4%的得分仅次于GPT-5。

为训练这一超大规模模型,蚂蚁集团开发了IcePop、C3PO++和ASystem三项创新技术。其中IcePop通过双向掩码校准消除RL训练中的梯度噪声,C3PO++采用并行处理机制提升GPU利用率,ASystem则通过单控制器架构实现异步运算。这些技术突破解决了混合专家模型(MoE)在强化学习训练中的动态路由难题。

💡 核心要点

  • 总参数1万亿,每token激活500亿参数,当前最大开源推理模型
  • AIME 25基准测试93.4%得分,仅次于GPT-5(开源模型中最佳)
  • 支持12.8万token上下文,基于Ling-1T-base模型训练
  • 开发IcePop/C3PO++/ASystem三项创新训练技术
  • 代码生成能力超越DeepSeek和Qwen同级别模型

📌 情报分析

技术价值:极高
MoE架构+万亿参数规模突破开源模型上限,三项原创训练技术解决超大规模RL训练痛点,特别是IcePop对动态路由机制的优化具有行业普适价值。

商业价值:高
数学/代码场景的专项优化契合金融科技主业需求,开源策略可快速建立开发者生态,但需面对GPT-5/Gemini 2.5的商用化先发优势。

趋势预测:高
中美AI竞赛进入超大规模模型攻坚阶段,蚂蚁此次技术披露显示中国企业在训练方法论上的自主创新已不局限于参数堆砌,未来6-12个月或将出现更多万亿级开源模型。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索