美团开源大模型LongCat-Flash-Chat性能追平DeepSeek-V3.1,单GPU生成速度超100 tokens/s

🎯 情报来源:量子位

美团于2025年9月1日开源其首个大模型LongCat-Flash-Chat,该模型在部分benchmark上的表现已追平甚至超越DeepSeek-V3.1、Qwen3 MoE-2507等知名模型。技术报告显示,LongCat-Flash-Chat采用创新的”零计算专家”与Shortcut-connected MoE架构,显著提升了训练与推理吞吐。在560B参数规模下,单张H800 GPU生成速度超过100 tokens/s,成本约0.7美元/百万输出token。

该模型在20T token语料上完成预训练仅用30天,训练期间可用率达98.48%。在TerminalBench编程测试中,其表现与公认的”编程之王”Claude4 Sonnet不相上下。美团CEO王兴此前已明确公司的”主动进攻”AI策略,2024年研发投入达211亿元,规模仅次于华为、腾讯和阿里巴巴。

💡 核心要点

  • 560B参数MoE模型,激活参数18.6B–31.3B,总参数量少于DeepSeek-V3.1和Kimi-K2
  • 单张H800 GPU生成速度>100 tokens/s,成本0.7美元/百万token
  • 预训练20T token仅30天,训练可用率98.48%
  • 在Agent工具调用、指令遵循等benchmark超越DeepSeek-V3.1
  • 2024年美团研发投入211亿元,过去5年累计超1000亿元

📌 情报分析

技术价值:极高
创新性采用”零计算专家”架构和Shortcut-connected MoE设计,通过动态计算分配和通信优化实现高效推理。技术报告详细程度超过Kimi、GLM等专业AI公司。

商业价值:高
美团已将该模型应用于内部AI工具,API调用量从10%增长至68%。结合外卖、零售等业务场景,具备快速落地潜力。但作为首次开源模型,生态建设仍需时间。

趋势预测:高
显示非传统AI企业在大模型领域的突破能力。美团”零售+科技”战略下,预计将持续加大AI投入,特别是在具身智能等与业务结合紧密的方向。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索