🎯 情报来源:量子位
在2025年国际机器翻译大赛WMT中,阿里国际AI Business的翻译大模型Marco-MT-Algharb表现卓越,斩获6项冠军、4项亚军和2项季军。特别是在最具挑战性的英中翻译赛道上,Marco-MT超越了Gemini 2.5 Pro、GPT-4.1、Claude 4和Mistral-Medium等所有顶尖闭源AI系统,登顶榜首。WMT的人工评测被视为机器翻译领域的“黄金标准”,这一成就标志着Marco-MT从电商行业翻译迈向通用翻译的领先行列。
Marco-MT此次参赛的是WMT竞赛中难度更高的受限赛道,要求模型仅使用开源数据和开源模型,且模型规模不超过20B。通过结合电商翻译模型训练经验和原创训练方法M2PO(多阶段偏好优化),Marco-MT成功将强化学习范式应用于大模型翻译领域,显著提升了翻译的准确性和忠实度。该模型在包括英译中在内的13个核心语向表现优异,甚至在多个语向上超越了人工翻译。
💡 核心要点
- Marco-MT在WMT2025中斩获6项冠军、4项亚军和2项季军
- 英中翻译超越Gemini 2.5 Pro、GPT-4.1等顶尖闭源AI系统
- 模型规模不超过20B,严格遵守开源数据和开源模型限制
- 采用原创训练方法M2PO,结合强化学习提升翻译质量
- 在13个核心语向表现优异,多个语向超越人工翻译
📌 情报分析
技术价值:极高 – Marco-MT在受限赛道中超越闭源巨头,证明其技术领先性。M2PO训练方法和强化学习的应用为机器翻译领域提供了新思路。
商业价值:高 – 该模型已接入阿里国际电商平台,支持多场景翻译,具备高质量、低幻觉率等优势,商业应用前景广阔。
趋势预测:高 – 开源策略和技术突破将加速机器翻译领域的创新,Marco-MT有望成为通用翻译领域的重要竞争者。
