🎯 情报来源:量子位
2025年10月15日,国内AI创作平台LiblibAI发布2.0版本重大升级,从单一模型平台转型为集成AI生成全流程的创作平台。平台一次性接入Qwen-Image、Seedream 4.0、Nano-Banana等8大热门图像模型,并率先在国内集成Midjourney V7模型。视频生成方面整合海螺2.0、通义万相2.5等主流视频模型,新增特效编辑功能实测效果惊艳。
据实测数据显示,平台视频特效生成响应时间控制在3秒内,但四图同时生成时速度下降明显。其母公司曾创下一年完成四轮融资的行业纪录,海外子公司产品Lovart曾创下5天10万内测用户的成绩。
💡 核心要点
- 模型整合:同时接入8个主流AI模型,包括Midjourney最新V7版本
- 视频突破:支持海螺2.0等4大视频模型,新增特效编辑功能
- 商业背景:母公司曾一年完成四轮融资,创始人陈冕为前剪映商业化负责人
- 用户数据:海外产品Lovart曾创5天10万内测用户记录
- 现存问题:多图生成速度慢,部分特效存在画面稳定性问题
📌 情报分析
技术价值:高 – 实现多模型协同工作流,视频特效功能属行业创新,但画面稳定性仍需优化(实测出现瞳孔变色等bug)
商业价值:极高 – 背靠成熟商业化团队(创始人来自剪映),已验证用户增长能力(Lovart案例),完整创作闭环提升付费转化潜力
趋势预测:高 – 从工具集向创作平台转型符合AIGC行业演进路径,但需解决性能瓶颈(用户反馈的多图生成速度问题)
