🎯 情报来源:AI News | VentureBeat
日本AI实验室Sakana AI近日发布了一种名为Multi-LLM AB-MCTS的新技术,允许多个大语言模型(LLM)协作完成同一任务,有效构建AI”梦之队”。该技术采用自适应分支蒙特卡洛树搜索算法(AB-MCTS),使不同模型能够通过试错并结合各自优势,解决单个模型难以处理的复杂问题。
在ARC-AGI-2基准测试中,由o4-mini、Gemini 2.5 Pro和DeepSeek-R1组成的模型团队在120个测试问题上取得了超过30%的正确率,显著优于任何单一模型的表现。更值得注意的是,系统成功解决了原本任何单个模型都无法解决的问题,展示了集体智能的突破性潜力。
💡 核心要点
- 技术突破:Multi-LLM AB-MCTS使多个LLM能够协作解决复杂任务,在ARC-AGI-2基准测试中性能提升30%
- 算法创新:采用自适应分支蒙特卡洛树搜索(AB-MCTS),智能平衡”深度搜索”和”广度搜索”策略
- 商业价值:企业可动态组合不同前沿模型优势,无需锁定单一供应商
- 开源工具:发布Apache 2.0许可的TreeQuest框架,支持商业应用
- 应用场景:已成功应用于复杂算法编码、机器学习模型精度提升等任务
📌 情报分析
技术价值:极高 – 首次实现多模型动态协作的完整技术框架,采用AlphaGo同款MCTS算法,基准测试表现突破现有单模型限制
商业价值:高 – 企业可按需组合各厂商模型优势,降低供应商锁定风险;开源框架降低应用门槛,已展示在算法优化等场景的实用价值
趋势预测:高 – 推理期优化(与训练期优化相对)将成为新竞争维度,多模型协作模式可能重塑企业AI部署方式,尤其适合需要迭代试错的复杂任务