WAN-2.1 FLF2V 现已登陆WaveSpeedAI

WAN-2.1 FLF2V 现已登陆WaveSpeedAI

WAN-2.1 FLF2V 现已在 WaveSpeedAI 上线:从关键帧到电影级运动

我们很高兴地推出 WAN-2.1 系列的又一个强大补充:WAN-2.1 FLF2V(首尾帧到视频)现已在 WaveSpeedAI 上线。

这个模型引入了一种新颖的视频生成方式,通过获取起始帧和目标结束帧,然后生成流畅、动态的视频来实现两者之间的平滑过渡。WAN-FLF2V 不是进行插值或变形,而是根据文本提示、风格和视觉一致性创建逼真的运动。

无论您是在可视化故事板还是对关键概念进行场景动画处理,FLF2V 都为可控视频生成打开了新的大门。

什么是 WAN-2.1 FLF2V?

FLF2V 代表首尾帧到视频。该模型使用两个图像锚点——首帧和末尾帧——并生成一个短的电影序列,通过合理的创意运动将两者连接起来。

它不是简单地混合帧,而是利用 Wan 2.1 的架构,集成 LoRA 调节、扩散引导和时间一致性训练来产生有意义的过渡。

FLF2V 模型弥合了关键帧之间的创意间隙。结果通常看起来像短动画电影中的场景——具有角色运动、背景过渡和流畅展开的动作。

主要特性

  • 双锚点运动合成: 通过上下文感知的运动序列连接两个关键帧,生成视频。

  • 支持提示 + 图像输入: 将文本指导与首帧/末尾帧图像相结合,以获得更精细的内容和风格控制。

  • LoRA 兼容: 原生支持所有 LoRA 模型——可精确定制角色、风格和环境。

  • 高保真 + 真实感: 训练以避免扭曲、伪影或懒惰插值——运动展开自然流畅,保持一致性。

  • WaveSpeedAI 推理的快速推理: 使用我们优化的推理引擎以极快的速度运行 WAN-FLF2V,节省时间和计算成本。

用例

  • 故事板可视化: 输入一个场景的开始和结束——让 FLF2V 将您的故事板面板栩栩如生地展现出来。

  • 角色出场/退场场景: 动画化角色如何走进、转身、跳跃或退出——FLF2V 使短过渡变得电影级。

  • 环境对环境的过渡: 对于概念艺术或游戏,动画化从沙漠到森林、白天到夜晚等的旅程。

  • 社交内容和编辑: 非常适合在 TikTok、Instagram 或 YouTube Shorts 等平台上的平滑切割和风格化过渡。

如何在 WaveSpeedAI 上使用

  1. 转到 WaveSpeedAI 上的任何 WAN-2.1 FLF2V 模型页面
  2. 上传或生成首帧和目标末尾帧。
  3. 设置您的提示、负面提示和分辨率。
  4. 生成连接两个场景的完整视频。

无论您是在制作原型动画、可视化过渡,还是推动 AI 辅助讲故事的边界,WAN-2.1 FLF2V 都为可控视频生成打开了一个强大的新维度。通过简单地指定首帧和末尾帧,创作者现在可以生成光滑、连贯的运动,以惊人的视觉保真度连接时刻。

TwitterLinkedIn 上关注我们,并加入我们的 Discord 频道以保持更新。