🎯 情报来源:量子位
2025年9月14日,研究团队提出全新生成模型范式Transition Model(TiM),通过建模任意两时刻间的状态转移,从根本上解决了生成式AI领域长期存在的”速度与质量难以兼顾”的核心矛盾。实验数据显示,仅865M参数的TiM模型在文本生成任务中,生成质量和速度均超越12B参数的FLUX.1-Schnell和FLUX.1-Dev模型。
TiM的关键创新在于提出了”通用状态转移恒等式”,支持任意步长采样和多段细化轨迹生成。该模型原生支持FSDP分布式训练和Flash Attention优化,训练速度较传统方法提升2倍。研究团队还采用差分推导方程(DDE)和损失加权策略,显著提升了大规模训练的稳定性和可扩展性。
💡 核心要点
- TiM-865M模型性能超越12B参数的FLUX.1-Schnell/Dev,实现少步高速与高保真兼得
- 提出”通用状态转移恒等式”,支持任意步长采样和多段细化轨迹生成
- 采用DDE技术使训练速度提升2倍,原生兼容FSDP和Flash Attention
- 在多分辨率、多横纵比场景下展现更强适应性
- 通过损失加权策略有效控制梯度方差,提升训练稳定性
📌 情报分析
技术价值:极高 – TiM从根本上重构了生成模型的训练范式,从局部优化转向全局路径学习,解决了扩散模型和Few-step模型的内在局限。
商业价值:高 – 该技术可大幅降低高质量AI生成的计算成本(865M vs 12B参数),并支持灵活部署场景,具有明确的商业化潜力。
趋势预测:高 – 原生支持分布式训练和主流优化技术的特性,使其很可能成为下一代生成模型的基础架构,推动AI生成技术向更高效方向发展。