← 博客

Wan 2.7即将到来:全面超越2.6的重大升级

Wan 2.7计划于2026年3月内发布,在画质、音频、运动动态等方面大幅提升,并新增9宫格图生视频和基于指令的编辑等功能。立即在WaveSpeedAI上体验Wan 2.5和2.6。

1 min read

Wan 2.7 即将到来

阿里巴巴下一代 Wan 视频模型即将发布。Wan 2.7 计划于 2026 年 3 月内上线,它将是 Wan 系列迄今为止最重大的升级——相较于 Wan 2.6,这是一次全面的重大飞跃。

如果你一直关注 Wan 模型系列,你会知道每一次发布都在推动开源 AI 视频生成的边界。Wan 2.7 也不例外。这一次,改进几乎涵盖了视频创作的每一个维度。

Wan 2.7 的改进内容

Wan 2.7 在五个核心领域带来了显著提升:

  • 视觉质量 — 输出结果更清晰、更细腻、更具真实感,色彩准确度和细节保留能力大幅提升。
  • 音频 — 增强的音频生成能力,让生成视频中的声音更自然、更同步。
  • 动态效果 — 更流畅、更符合物理规律的运动,帧间时序一致性更佳。
  • 风格化 — 更丰富、更可控的艺术风格范围,从电影质感到动画风格,应有尽有。
  • 一致性 — 整段视频中角色、场景和物体的一致性大幅提升,即便在复杂的多镜头场景中也表现出色。

这些绝非细枝末节的小改动——它们代表着开源视频模型所能实现的能力迈出了实质性的一步。

Wan 2.7 的新功能

除了质量提升之外,Wan 2.7 还引入了多项强大的新能力,进一步拓展了 AI 视频创作的可能性:

首帧与尾帧视频生成

同时指定视频的起始帧和结束帧,Wan 2.7 将自动生成中间的运动过程。这让创作者能够精确掌控每个片段的叙事弧线。

九宫格图像转视频

一种全新的图像转视频方式,采用九宫格布局提供更丰富、更结构化的输入。这有助于实现更精细的场景构图和多角度参考,从而输出更高质量的视频。

主体 + 声音参考

将视觉主体参考与声音参考相结合,生成角色外观和声音均与输入一致的视频。这对个性化内容创作来说是一项颠覆性的功能。

基于指令的视频编辑

通过自然语言指令编辑现有视频。想更换背景、调整灯光或修改角色服装?只需描述你的需求,模型会自动完成剩余工作。

视频重现与复刻

对现有视频进行重现或复刻并加以修改——无论是改变风格、替换主体,还是在保留原始运动和结构的同时将内容适配到不同场景。

更强大的创作工作流

综合来看,这些改进和新功能共同指向一个更完整的创作工作流。Wan 2.7 不仅仅是一个更好的视频生成器——它正在演进为一套完整的视频创作与编辑工具集。

首帧/尾帧控制、基于指令的编辑以及视频重现功能集于一身,创作者将能够以更低的门槛从创意直接产出成片。

立即在 WaveSpeedAI 上试用 Wan 2.5 和 2.6

在等待 Wan 2.7 发布的同时,你完全不必坐以待毙。Wan 2.5 和 Wan 2.6 已在 WaveSpeedAI 上线,全套功能随时可用。

探索 Wan 2.6 系列 →

Wan 2.6 支持文本生成视频、图像生成视频、参考图生成视频、图像编辑、视频延伸等多种功能,并提供 Pro、Flash 和 Spicy 多个版本,满足不同速度与质量需求。

探索 Wan 2.5 系列 →

Wan 2.5 在文本生成视频、图像生成视频、文本生成图像、图像编辑和视频延伸等工作流中依然是稳定可靠的选择。

所有模型均可通过 WaveSpeedAI 的 API 调用,无冷启动,定价具有竞争力。只需几行代码即可上手:

import wavespeed

output = wavespeed.run(
    "alibaba/wan-2.6/text-to-video",
    {"prompt": "A cinematic shot of a wolf running through a snowy forest at golden hour, with snowflakes catching the warm light"},
)

print(output["outputs"][0])

为 Wan 2.7 做好准备

三月还剩两周,一切皆有可能。Wan 2.7 将成为开源 AI 视频社区的里程碑式发布。

在此之前,不妨先在 WaveSpeedAI 上使用 Wan 2.5 和 Wan 2.6 开始创作——你现在积累的经验和成果,在 Wan 2.7 到来时同样适用。敬请关注发布公告。