🎯 情报来源:量子位
7月26日,中国移动在世界人工智能大会(WAIC)上正式发布MoMA多模型与智能体聚合及服务引擎。该引擎汇聚了包括九天大模型、Qwen和DeepSeek在内的15+个高质量内外部模型,以及20多个专家智能体,通过动态路由机制在1B至200B参数模型间灵活切换,整体推理速度较固定75B模型提升42%。
MoMA采用原创性PD²-Matrix框架实现模型能力精准评估,兼容MCP和A2A协议构建安全通信体系,已应用于中国移动灵犀智能体2.0,覆盖通信、生活、办公等百万级用户场景。
💡 核心要点
- 模型聚合规模:整合15+大模型(含Qwen/DeepSeek)和20+专家智能体
- 性能突破:多级路由机制使推理速度提升42%(对比固定75B模型)
- 技术框架:首创PD²-Matrix实现模型能力精准评估与成本优化
- 协议兼容:扩展MCP/A2A协议构建安全通信体系
- 应用成果:已部署至灵犀智能体2.0,服务百万级多元化场景
📌 情报分析
技术价值(极高):PD²-Matrix框架首次实现LLM能力结构化评估,多级路由机制经实际验证提升42%效率,具备技术原创性。
商业价值(高):已形成百万用户级应用案例,动态成本优化机制直接解决企业AI部署痛点,但需验证跨行业适配性。
趋势预测(高):央企主导的模型聚合平台将加速行业标准制定,百模互联生态可能重构国内AI服务市场格局。