Alibaba WAN 2.7 Video Extend 現已登陸WaveSpeedAI
使用 Alibaba WAN 2.7 Video Extend 無縫延伸任何影片。AI 驅動的影片續接技術,完整保留動態、風格與內容。立即體驗 WaveSpeedAI。
使用 WaveSpeedAI 上的 WAN 2.7 Video Extend 無縫延伸任何影片
你有一段完美的 4 秒影片剪輯——只是太短了。重新拍攝更多素材並不可行,而循環播放又顯而易見。Alibaba WAN 2.7 Video Extend 透過生成額外幀來自然地延續影片,完美匹配原始影片的動態、風格、光線與內容,彷彿一鏡到底拍攝完成。
現已在 WaveSpeedAI 上線,提供即時 API 存取,無冷啟動延遲。
什麼是 WAN 2.7 Video Extend?
WAN 2.7 Video Extend 是 Alibaba 最新的影片續接模型。它以現有影片作為輸入,生成額外幀以延長影片的原始時長。模型分析源影片的動態模式、視覺風格、主體行為與場景動態,進而產生無縫的延續內容。
這是 WAN 2.7——相較於 WAN 2.5 和 2.6,在時序一致性、動態準確性與視覺保真度方面均有顯著提升。
核心功能
-
無縫續接:生成的幀在視覺上與原始素材無法區分。在延伸接合點處,無可見縫隙或畫質落差。
-
動態感知:模型能理解並延續複雜的動態——行走、奔跑、鏡頭平移、縮放,以及流水或樹木搖曳等環境動態。
-
風格保留:光線、色彩分級、膠片顆粒和視覺美感從源影片延續至延伸部分。
-
WAN 2.7 品質:Alibaba WAN 架構的最新一代,相較前版本提供更佳的時序一致性與更高的保真度。
-
無冷啟動:透過 WaveSpeedAI 的常駐基礎架構,每次 API 呼叫均可立即回應。
實際應用場景
短影音內容
延伸 AI 生成或實拍的剪輯以符合平台時長要求。將 3 秒剪輯變成 6 秒的 Reel 或 10 秒的 TikTok。
B-Roll 延伸
拉長有限的 B-Roll 素材以覆蓋更長的旁白或訪談片段。一個 5 秒的建立鏡頭可延伸至 15 秒,且不會出現明顯的循環跡象。
影片製作
延伸提前結束的拍攝片段。若演員表現完美但攝影機過早停止錄製,Video Extend 可補足剩餘的秒數。
循環背景
為簡報、直播或數位看板建立延伸背景影片。將風景影片延伸至所需的任意時長。
AI 影片流水線
將 Video Extend 與其他 AI 生成模型串聯。先以文字轉影片生成短片,再延伸至所需長度——從較短的 AI 輸出構建更長的內容。
快速開始
import wavespeed
output = wavespeed.run(
"alibaba/wan-2.7/video-extend",
{
"video": "https://example.com/source-video.mp4",
"prompt": "Continue the scene with the same camera movement and lighting"
},
)
print(output["outputs"][0])
提供源影片和可選的提示詞來引導延伸方向。
定價
WAN 2.7 Video Extend 對單片段和批次工作流程均採用具競爭力的定價。WaveSpeedAI 上無冷啟動,意味著生產流水線的處理時間穩定可預期。
最佳實踐
-
使用結尾乾淨的幀:以持續動態結尾的影片比以硬切或定格結尾的影片延伸效果更自然。若可能,選擇結尾處具有流暢持續動態的剪輯。
-
善用提示詞引導:雖然為可選項,但加入如「繼續向右平移鏡頭」或「人物繼續向前走」的提示詞,能幫助模型產生更具方向性的延伸效果。
-
避免過度延伸:每次延伸循環都會添加生成內容。將 4 秒剪輯延伸 4 秒效果極佳;延伸 60 秒則可能出現畫質漂移。對於長時間延伸,建議分多次通過進行。
-
匹配源素材品質:模型對乾淨、穩定的源素材效果最佳。嚴重壓縮、雜訊過多或有瑕疵的輸入會將這些問題帶入延伸部分。
結語
WAN 2.7 Video Extend 能將短片轉化為更長的影片,且無可見縫隙、畫質下降或明顯的 AI 生成痕跡。無論是延伸 B-Roll、從 AI 生成內容構建更長影片,還是拉伸有限素材,均能呈現無縫的效果。
讓你的影片超越原始時長。立即在 WaveSpeedAI 上試用 WAN 2.7 Video Extend,只需一次 API 呼叫即可實現無縫影片續接。





