← ブログ

Alibaba WAN 2.7 Video ExtendがWaveSpeedAIに登場

Alibaba WAN 2.7 Video Extendで、あらゆる動画をシームレスに延長。モーション、スタイル、コンテンツを保持するAI搭載の動画続編生成機能が、WaveSpeedAIで利用可能になりました。

1 min read
Alibaba Wan.2.7 Video Extend
Alibaba Wan.2.7 Video Extend Alibaba WAN 2.7 Video Extendで、あらゆる動画をシームレスに延長。モーション、スタイル、コンテ...
Try it
Alibaba WAN 2.7 Video ExtendがWaveSpeedAIに登場

WaveSpeedAIでWAN 2.7 Video Extendを使って動画をシームレスに延長しよう

4秒の完璧な動画クリップがある — でも短すぎる。追加撮影はできないし、ループは一目でわかってしまう。Alibaba WAN 2.7 Video Extendはこの問題を解決します。元の動作・スタイル・照明・コンテンツに合わせ、まるで一度に撮影したかのような自然な続きのフレームを生成します。

WaveSpeedAIで即座なAPIアクセスとコールドスタートなしで利用できるようになりました。

WAN 2.7 Video Extendとは?

WAN 2.7 Video Extendは、Alibabaの最新動画継続モデルです。既存の動画を入力として受け取り、元の長さを超えて延長するための追加フレームを生成します。このモデルはソース動画のモーションパターン・ビジュアルスタイル・被写体の動き・シーンのダイナミクスを分析し、シームレスな続きを生成します。

これがWAN 2.7です — 時間的一貫性、モーション精度、ビジュアル忠実度においてWAN 2.5および2.6から大幅に進化しています。

主な特徴

  • シームレスな継続: 生成されたフレームは元の映像と視覚的に区別がつきません。延長ポイントで目に見えるつなぎ目や品質の変化はありません。

  • モーション対応: 歩行、走り、カメラパン、ズーム、流れる水や揺れる木々などの環境的な動きといった複雑なモーションを理解し、継続します。

  • スタイル保持: 照明、カラーグレーディング、フィルムグレイン、ビジュアルの美観がソース動画から延長部分へと引き継がれます。

  • WAN 2.7品質: AlibabaのWANアーキテクチャの最新世代は、以前のバージョンよりも優れた時間的一貫性と高い忠実度を実現します。

  • コールドスタートなし: WaveSpeedAIの常時ウォームなインフラにより、すべてのAPIコールで即座に応答します。

実際のユースケース

ショートフォームコンテンツ

AIで生成した、または撮影したクリップをプラットフォームの時間要件に合わせて延長します。3秒のクリップを6秒のリールや10秒のTikTokに変換できます。

Bロール延長

限られたBロール映像をナレーションやインタビューセグメントに合わせて引き伸ばします。5秒のエスタブリッシングショットが、ループを使わずに15秒になります。

動画制作

早く終わりすぎたテイクを延長します。俳優のパフォーマンスが完璧だったのにカメラが少し早く止まってしまった場合、Video Extendが残りの秒数を補完します。

ループ背景

プレゼンテーション、ライブ配信、デジタルサイネージ用の延長背景動画を作成します。風景動画を必要な長さに延長できます。

AI動画パイプライン

Video Extendを他のAI生成モデルと組み合わせます。テキストから動画で短いクリップを生成し、それを希望の長さに延長することで、より短いAI出力から長いコンテンツを構築できます。

はじめに

import wavespeed

output = wavespeed.run(
    "alibaba/wan-2.7/video-extend",
    {
        "video": "https://example.com/source-video.mp4",
        "prompt": "Continue the scene with the same camera movement and lighting"
    },
)

print(output["outputs"][0])

ソース動画と、延長方向を指定するためのオプションのプロンプトを提供してください。

料金

WAN 2.7 Video Extendは、単一クリップおよびバッチワークフローの両方に対して競争力のある価格設定になっています。WaveSpeedAIではコールドスタートがないため、本番パイプラインで一貫した予測可能な処理時間を実現します。

ベストプラクティス

  1. クリーンな終了フレームを使用: ハードカットやフリーズフレームで終わる動画よりも、モーション途中で終わる動画の方がより自然に延長されます。可能であれば、終わりに滑らかで継続的なモーションがあるクリップを選んでください。

  2. プロンプトで誘導: オプションではありますが、「カメラを右にパンし続ける」や「人物が前方に歩き続ける」といったプロンプトを追加することで、より意図的な延長が生成されます。

  3. 延長しすぎない: 各延長サイクルで生成コンテンツが追加されます。4秒のクリップを4秒延長するのは良い結果が得られますが、60秒延長すると品質が低下する可能性があります。長い延長には、複数回に分けて延長することを検討してください。

  4. ソースの品質に合わせる: このモデルはクリーンで安定したソース映像で最もよく機能します。激しく圧縮されたノイズの多い、またはアーティファクトのある入力は、それらの問題が延長部分にも引き継がれます。

まとめ

WAN 2.7 Video Extendは、目に見えるつなぎ目、品質低下、明らかなAIアーティファクトなしに、短いクリップを長くします。Bロールを延長する場合でも、AIで生成したコンテンツからより長い素材を構築する場合でも、限られた映像を引き伸ばす場合でも、シームレスな結果を提供します。

動画を元の長さを超えて延長しましょう。今すぐWaveSpeedAIでWAN 2.7 Video Extendを試す、1回のAPIコールでシームレスな動画継続を実現できます。