Sakana AI推出Multi-LLM AB-MCTS技术:多模型协作解决复杂任务,性能提升30%

🎯 情报来源:AI News | VentureBeat

日本AI实验室Sakana AI近日发布了一种名为Multi-LLM AB-MCTS的新技术,允许多个大语言模型(LLM)协作完成同一任务,有效构建AI”梦之队”。该技术采用自适应分支蒙特卡洛树搜索算法(AB-MCTS),使不同模型能够通过试错并结合各自优势,解决单个模型难以处理的复杂问题。

在ARC-AGI-2基准测试中,由o4-mini、Gemini 2.5 Pro和DeepSeek-R1组成的模型团队在120个测试问题上取得了超过30%的正确率,显著优于任何单一模型的表现。更值得注意的是,系统成功解决了原本任何单个模型都无法解决的问题,展示了集体智能的突破性潜力。

💡 核心要点

  • 技术突破:Multi-LLM AB-MCTS使多个LLM能够协作解决复杂任务,在ARC-AGI-2基准测试中性能提升30%
  • 算法创新:采用自适应分支蒙特卡洛树搜索(AB-MCTS),智能平衡”深度搜索”和”广度搜索”策略
  • 商业价值:企业可动态组合不同前沿模型优势,无需锁定单一供应商
  • 开源工具:发布Apache 2.0许可的TreeQuest框架,支持商业应用
  • 应用场景:已成功应用于复杂算法编码、机器学习模型精度提升等任务

📌 情报分析

技术价值:极高 – 首次实现多模型动态协作的完整技术框架,采用AlphaGo同款MCTS算法,基准测试表现突破现有单模型限制

商业价值:高 – 企业可按需组合各厂商模型优势,降低供应商锁定风险;开源框架降低应用门槛,已展示在算法优化等场景的实用价值

趋势预测:高 – 推理期优化(与训练期优化相对)将成为新竞争维度,多模型协作模式可能重塑企业AI部署方式,尤其适合需要迭代试错的复杂任务

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索