Liquid AI发布LFM2:训练效率提升3倍,解码速度2倍于Qwen3的轻量级基础模型

🎯 情报来源:The Robot Report

Liquid AI本周正式发布新一代液体基础模型LFM2,该模型在训练效率、推理速度和内存占用等方面实现突破性进展。据官方数据,LFM2训练效率较前代提升3倍,在CPU上的解码和预填充速度达到Qwen3的2倍,1.2B参数版本性能可匹敌参数量大47%的Qwen3-1.7B。

该模型采用混合架构设计,包含10个双门短程卷积块和6组分头注意力块,支持CPU/GPU/NPU多硬件部署。公司同步开源0.35B/0.7B/1.2B三个参数量级的模型权重,年收入低于1000万美元的企业可免费商用。目前模型已上线Hugging Face平台。

💡 核心要点

  • 性能突破:1.2B版本在MMLU、GSM8K等7项基准测试中超越同尺寸模型,700M版本优于Gemma 3 1B IT
  • 架构创新:混合液态架构结合乘性门控与短程卷积,支持32k上下文长度
  • 商业策略:采用Apache 2.0变种许可,瞄准年收入<$10M企业的边缘计算市场
  • 训练优化:基于LFM1-7B进行知识蒸馏,采用带长度归一化的定制DPO算法
  • 多语言支持:训练数据包含20%多语言语料,重点覆盖中日韩等7国语言

📌 情报分析

技术价值:极高
模型架构创新(混合门控+卷积)实现参数量与性能的优化平衡,32k上下文和跨硬件支持体现工程突破

商业价值:高
精准卡位边缘计算蓝海市场,开源策略可快速形成开发者生态,但$10M营收限制影响大客户覆盖

趋势预测:高
轻量化模型+边缘部署组合符合AI普惠化趋势,实测数据表明其在终端设备市场可能形成对云端LLM的替代压力

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索