← ブログ

Wan 2.7がやってくる:2.6からの大幅な全面アップグレード

Wan 2.7は2026年3月中のローンチが予定されており、映像品質・音声・モーションダイナミクスの大幅な改善と、9グリッド画像→動画変換や指示ベース編集などの新機能を備えています。今すぐWaveSpeedAIでWan 2.5と2.6をお試しください。

1 min read

Wan 2.7 まもなく登場

AlibaaのWanビデオモデルの次世代がいよいよ近づいています。Wan 2.7は2026年3月中にローンチ予定で、Wanシリーズ史上最大のアップグレードとなる見込みです — Wan 2.6からあらゆる面で大きく進化します。

Wanモデルファミリーを追ってきた方なら、リリースのたびにオープンソースAIビデオ生成の限界を押し広げてきたことはご存知でしょう。Wan 2.7も例外ではありません。今回は、ビデオ制作のほぼすべての次元にわたって改善が施されています。

Wan 2.7の改善点

Wan 2.7は5つのコア領域で大幅な改善をもたらします:

  • 映像品質 — よりシャープで詳細、かつフォトリアルな出力が期待でき、色精度と細部の再現性が向上します。
  • オーディオ — 生成された動画でより自然で同期したサウンドを実現する、強化されたオーディオ生成機能。
  • モーションダイナミクス — フレーム間の時間的一貫性が改善され、よりスムーズで物理的にもっともらしいモーション。
  • スタイライゼーション — シネマティックなルックからアニメーションまで、より幅広く制御可能なアーティスティックスタイル。
  • 一貫性 — 複雑なマルチショットシナリオでも、ビデオ全体を通じたキャラクター・シーン・オブジェクトの一貫性が向上。

これらは些細な調整ではなく、オープンソースのビデオモデルが実現できることの意味ある前進を示しています。

Wan 2.7の新機能

品質改善に加え、Wan 2.7はAIビデオ制作の可能性を広げるいくつかの強力な新機能を導入します:

最初のフレームと最後のフレームを指定したビデオ生成

ビデオの開始フレームと終了フレームの両方を指定すると、Wan 2.7がその間のモーションを生成します。これにより、クリエイターは各クリップのナラティブの流れを細かくコントロールできます。

9グリッドの画像から動画への変換

9グリッドレイアウトを使ったより豊かで構造化された入力による、新しいimage-to-video生成アプローチ。より詳細なシーン構成とマルチアングルリファレンスにより、高品質なビデオ出力が可能になります。

被写体+音声リファレンス

視覚的な被写体リファレンスと音声リファレンスを組み合わせることで、キャラクターの外見と声の両方が入力と一致したビデオを生成できます。パーソナライズされたコンテンツ制作において画期的な機能です。

自然言語指示によるビデオ編集

自然言語の指示を使って既存のビデオを編集できます。背景を変えたい、照明を調整したい、キャラクターの衣装を変えたい?変更内容を説明するだけで、モデルが残りを処理します。

ビデオの再現/レプリケーション

既存のビデオをスタイル変更、被写体の入れ替え、または元のモーションと構造を保ちながら異なるコンテキストへのコンテンツ適応など、変更を加えつつ再現またはレプリケートできます。

より強力なクリエイティブワークフロー

これらの改善と新機能を合わせると、より包括的なクリエイティブワークフローが見えてきます。Wan 2.7は単に優れたビデオジェネレーターではなく、フル機能のビデオ制作・編集ツールキットへと進化しています。

最初/最後のフレームコントロール、指示ベースの編集、ビデオ再現がひとつのモデルに統合されることで、クリエイターはコンセプトから完成したビデオまで、これまでよりはるかにスムーズに制作できるようになります。

今すぐWaveSpeedAIでWan 2.5 & 2.6を試す

Wan 2.7のリリースを待つ間も、手をこまねいている必要はありません。Wan 2.5とWan 2.6はすでにWaveSpeedAIで公開されており、今日すぐ使える充実した機能を備えています。

Wan 2.6コレクションを見る →

Wan 2.6はtext-to-video、image-to-video、reference-to-video、画像編集、ビデオ拡張など、速度と品質のニーズに応じたPro・Flash・Spicyバリアントを含む多彩な機能を提供しています。

Wan 2.5コレクションを見る →

Wan 2.5は、text-to-video、image-to-video、text-to-image、画像編集、ビデオ拡張ワークフローにおいて依然として信頼できる選択肢です。

すべてのモデルはWaveSpeedAIのAPIを通じて利用可能で、コールドスタートなし・競争力のある価格設定です。わずか数行のコードで始められます:

import wavespeed

output = wavespeed.run(
    "alibaba/wan-2.6/text-to-video",
    {"prompt": "A cinematic shot of a wolf running through a snowy forest at golden hour, with snowflakes catching the warm light"},
)

print(output["outputs"][0])

Wan 2.7に備えよう

3月はまだ2週間残っており、可能性は大きく開かれています。Wan 2.7はオープンソースAIビデオコミュニティにとって歴史的なリリースになるはずです。

それまでの間、WaveSpeedAIでWan 2.5とWan 2.6を使って制作を始めましょう — 今制作・習得したものすべてが、Wan 2.7が登場したときにも活きてきます。ローンチアナウンスをお楽しみに。