🎯 情报来源:机器之心
在华为开发者大会2025(HDC 2025)上,华为正式发布了盘古大模型5.5。该版本以自然语言处理(NLP)能力为核心亮点,首次在多模态世界模型领域实现全国首创,并覆盖五大基础模型领域,包括NLP、多模态、预测、科学计算和计算机视觉(CV)。华为常务董事、华为云CEO张平安与诺亚方舟实验室主任王云鹤共同揭秘了核心技术。
核心要点:
- 盘古Ultra MoE:7180亿参数的准万亿级别模型,训练稳定性领先国内,推理效率提升显著。
- 盘古Pro MoE:72B A16B模型,在SuperCLUE榜单中位列国内第一,适配昇腾硬件,吞吐量领先同规模模型15%以上。
- 盘古DeepDiver:开放域信息获取Agent,可在5分钟内完成复杂问答并生成万字报告。
- 多模态世界模型:为智能驾驶和具身智能机器人构建数字物理空间,降低训练数据采集成本。
- 科学计算大模型:支持深圳气象局AI集合预报,减少单一模型误差。
📌 情报分析
技术价值:极高
盘古5.5通过MoE架构、Triplet Transformer等创新技术,解决了超大规模模型训练中的稳定性问题,并在多个领域实现突破,如准万亿参数级模型全流程训练、跨行业预测精度提升等。
商业价值:高
盘古系列深耕行业应用,尤其在智能驾驶、气象预报、能源优化等关键领域展现强大的落地价值,能够显著降低企业智能化转型的技术门槛和成本。
趋势预测:
未来3-6个月内,盘古大模型有望进一步推动国产大模型在工业场景中的普及,特别是在多模态和科学计算领域形成差异化优势,同时吸引更多行业客户采用其解决方案。
