🎯 情报来源:The Robot Report
Liquid AI本周正式发布新一代液体基础模型LFM2,该模型在训练效率、推理速度和内存占用等方面实现突破性进展。据官方数据,LFM2训练效率较前代提升3倍,在CPU上的解码和预填充速度达到Qwen3的2倍,1.2B参数版本性能可匹敌参数量大47%的Qwen3-1.7B。
该模型采用混合架构设计,包含10个双门短程卷积块和6组分头注意力块,支持CPU/GPU/NPU多硬件部署。公司同步开源0.35B/0.7B/1.2B三个参数量级的模型权重,年收入低于1000万美元的企业可免费商用。目前模型已上线Hugging Face平台。
💡 核心要点
- 性能突破:1.2B版本在MMLU、GSM8K等7项基准测试中超越同尺寸模型,700M版本优于Gemma 3 1B IT
- 架构创新:混合液态架构结合乘性门控与短程卷积,支持32k上下文长度
- 商业策略:采用Apache 2.0变种许可,瞄准年收入<$10M企业的边缘计算市场
- 训练优化:基于LFM1-7B进行知识蒸馏,采用带长度归一化的定制DPO算法
- 多语言支持:训练数据包含20%多语言语料,重点覆盖中日韩等7国语言
📌 情报分析
技术价值:极高
模型架构创新(混合门控+卷积)实现参数量与性能的优化平衡,32k上下文和跨硬件支持体现工程突破
商业价值:高
精准卡位边缘计算蓝海市场,开源策略可快速形成开发者生态,但$10M营收限制影响大客户覆盖
趋势预测:高
轻量化模型+边缘部署组合符合AI普惠化趋势,实测数据表明其在终端设备市场可能形成对云端LLM的替代压力