LiblibAI 2.0实测:整合Qwen-Image等8大模型,视频特效生成能力突破

🎯 情报来源:量子位

2025年10月15日,国内AI创作平台LiblibAI发布2.0版本重大升级,从单一模型平台转型为集成AI生成全流程的创作平台。平台一次性接入Qwen-Image、Seedream 4.0、Nano-Banana等8大热门图像模型,并率先在国内集成Midjourney V7模型。视频生成方面整合海螺2.0、通义万相2.5等主流视频模型,新增特效编辑功能实测效果惊艳。

据实测数据显示,平台视频特效生成响应时间控制在3秒内,但四图同时生成时速度下降明显。其母公司曾创下一年完成四轮融资的行业纪录,海外子公司产品Lovart曾创下5天10万内测用户的成绩。

💡 核心要点

  • 模型整合:同时接入8个主流AI模型,包括Midjourney最新V7版本
  • 视频突破:支持海螺2.0等4大视频模型,新增特效编辑功能
  • 商业背景:母公司曾一年完成四轮融资,创始人陈冕为前剪映商业化负责人
  • 用户数据:海外产品Lovart曾创5天10万内测用户记录
  • 现存问题:多图生成速度慢,部分特效存在画面稳定性问题

📌 情报分析

技术价值:高 – 实现多模型协同工作流,视频特效功能属行业创新,但画面稳定性仍需优化(实测出现瞳孔变色等bug)

商业价值:极高 – 背靠成熟商业化团队(创始人来自剪映),已验证用户增长能力(Lovart案例),完整创作闭环提升付费转化潜力

趋势预测:高 – 从工具集向创作平台转型符合AIGC行业演进路径,但需解决性能瓶颈(用户反馈的多图生成速度问题)

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索