WaveSpeedAI LTX 2.3 Video Extend, WaveSpeedAI에 출시
LTX-2.3은 단일 모델 내에서 동기화된 비디오와 오디오를 생성하도록 설계된 DiT 기반 오디오-비디오 파운데이션 모델로, 향상된 오디오 및 시각적 품질을 제공합니다.
LTX-2.3 Video Extend로 영상을 자연스럽게 연장하세요
매력적인 영상 콘텐츠를 만들다 보면 클립이 몇 초 부족한 상황을 자주 마주하게 됩니다. 드론 촬영이 풍경이 완전히 펼쳐지기 전에 끝났거나, 제품 데모 영상에 메시지를 전달하기 위한 몇 박자가 더 필요한 경우가 그렇습니다. 지금까지 영상을 연장하려면 재촬영을 하거나, 번거로운 편집 방법을 동원하거나, 어색한 컷으로 타협해야 했습니다.
LTX-2.3 Video Extend가 이 모든 것을 바꿔줍니다. 이제 WaveSpeedAI에서 사용 가능한 이 모델은 기존 영상을 자연스럽게 이어가는 추가 프레임을 생성합니다 — 움직임, 스타일, 분위기를 너무나 완벽하게 일치시켜 시청자는 원본이 어디서 끝나고 연장 부분이 어디서 시작되는지 알아차릴 수 없습니다.
LTX-2.3 Video Extend란?
LTX-2.3 Video Extend는 강력한 시간적 일관성을 갖춘 고품질 영상 생성을 위해 설계된 DiT 기반(Diffusion Transformer) 아키텍처인 LTX-2.3 파운데이션 모델을 기반으로 합니다. 더 넓은 LTX-2.3 패밀리에는 텍스트-투-비디오 및 이미지-투-비디오 기능이 포함되어 있지만, Video Extend 변형은 특정하고 매우 실용적인 작업에 집중합니다: 기존 영상 클립을 받아 콘텐츠를 자연스럽게 이어가는 새로운 프레임을 생성하는 것입니다.
영상을 업로드하고, 추가로 필요한 초 수(1초에서 20초까지)를 지정하고, 선택적으로 장면이 어떻게 전개되어야 하는지 설명하세요. 모델은 소스 영상의 움직임 패턴, 시각적 스타일, 조명, 구도를 분석한 다음 마지막 프레임에서 자연스럽게 흘러나오는 연속 장면을 생성합니다.
결과물은 원본 영상의 특성을 그대로 보존하는 연장된 영상입니다 — 카메라 움직임이 기존 궤적을 따라 계속되고, 물체는 모멘텀을 유지하며, 환경적 세부 사항도 일관성을 유지합니다.
주요 기능
-
시간적 일관성: 모델은 그저 그럴싸한 프레임만 생성하는 것이 아닙니다 — 특정 소스 영상의 일관된 연속인 프레임을 생성합니다. 움직임 궤적, 조명 변화, 장면 역학이 자연스럽게 이어집니다.
-
유연한 시간 조절: 1초에서 최대 20초까지 영상을 연장할 수 있습니다. 이 세밀한 제어를 통해 리소스를 낭비하지 않고 정확히 필요한 만큼만 추가할 수 있습니다.
-
선택적 프롬프트 가이던스: 모델은 텍스트 입력 없이도 영상을 연장할 수 있지만, 장면이 어떻게 전개되어야 하는지 설명하는 프롬프트를 제공할 수 있습니다. 카메라가 왼쪽으로 패닝되기를 원하시나요? 캐릭터가 걷기 시작하기를 원하시나요? 설명하면 모델이 연속 장면에 당신의 방향을 반영합니다.
-
내장 프롬프트 향상기: 원하는 연속 장면을 어떻게 설명해야 할지 모르겠나요? 통합된 프롬프트 향상기가 더 나은 결과를 위해 자동으로 설명을 다듬어줍니다.
-
WaveSpeedAI에서 콜드 스타트 없음: 모델은 항상 준비된 상태입니다. 인프라가 가동되기를 기다리지 않고 요청을 제출하고 바로 결과를 받아보세요 — 창의적 프로젝트를 반복하며 빠른 피드백 루프가 필요할 때 특히 중요합니다.
실제 활용 사례
소셜 미디어 및 숏폼 콘텐츠
4초짜리 일몰 클립은 아름답지만 Instagram이나 TikTok에서 너무 빠르게 지나갑니다. 15초로 연장하면 시선을 잡아두는 완전한 게시물이 됩니다. 콘텐츠 크리에이터는 재촬영 없이 스마트폰으로 포착한 짧은 순간을 완성도 높은 풀-렝스 영상으로 탈바꿈시킬 수 있습니다.
영화 및 영상 제작
B-롤은 전문 영상의 핵심이며, 항상 부족합니다. 편집 공백을 채우기 위해 설정 샷, 풍경 영상, 분위기 클립을 연장하세요. 3초짜리 드론 플라이오버가 전체 장면 전환을 이끄는 20초짜리 시퀀스가 됩니다.
제품 데모 및 마케팅
제품 영상은 보이스오버 및 화면 텍스트와 동기화하기 위한 정확한 타이밍이 필요합니다. 클립이 짧게 끝날 때, 몇 초를 연장하면 어색한 멈춤이나 점프 컷 없이 시각적 흐름을 유지할 수 있습니다. 이는 부드럽고 연속적인 영상이 구매자 신뢰를 높이는 이커머스 제품 쇼케이스에 특히 유용합니다.
루프 제작
영상의 끝과 시작 사이의 간격을 메우는 추가 프레임을 생성하여 디지털 사이니지, 웹사이트 배경 영상, 또는 앰비언트 디스플레이를 위한 매끄러운 루프를 만드세요.
스토리텔링 및 애니메이션
애니메이터와 디지털 스토리텔러는 핵심 장면을 연장하여 순간에 숨 쉴 공간을 줄 수 있습니다. 캐릭터의 반응 샷, 극적인 정지, 또는 천천히 드러나는 장면 모두 추가적인 수동 프레임 작업 없이 서사를 위해 늘릴 수 있습니다.
WaveSpeedAI에서 시작하기
WaveSpeed Python SDK로 몇 줄의 코드만으로 바로 시작할 수 있습니다:
import wavespeed
output = wavespeed.run(
"wavespeed-ai/ltx-2.3/video-extend",
{
"video": "https://your-video-url.com/clip.mp4",
"duration": 10,
"prompt": "The camera continues to push forward through the forest as sunlight filters through the canopy"
},
)
print(output["outputs"][0])
이게 전부입니다. 설정할 인프라도, 관리할 GPU 인스턴스도, 콜드 스타트 지연도 없습니다. 영상과 파라미터를 제공하면 WaveSpeedAI가 나머지를 처리합니다.
가격
LTX-2.3 Video Extend는 간단한 초당 요금제를 사용합니다:
| 연장 시간 | 비용 |
|---|---|
| 1초 | $0.10 |
| 5초 | $0.50 |
| 10초 | $1.00 |
| 20초 | $2.00 |
초당 $0.10으로 자유롭게 실험할 수 있습니다 — 1초 연장으로 접근 방식을 검증한 다음, 방향이 마음에 들면 더 긴 시간으로 확장하세요.
최상의 결과를 위한 팁
- 명확한 소스 영상 제공: 뚜렷한 움직임 방향과 일관된 조명을 가진 영상이 모델에 가장 강력한 연속 신호를 제공합니다.
- 짧게 시작하고 길게 늘리세요: 20초 생성에 투자하기 전에 2-3초 연장으로 먼저 테스트하세요. 이를 통해 빠르고 저렴하게 반복할 수 있습니다.
- 설명적인 프롬프트 사용: 프롬프트가 선택 사항이더라도 결과를 크게 향상시킵니다. 카메라 움직임, 피사체 행동, 환경 변화를 설명하세요.
- 움직임 궤적을 고려하세요: 모델은 계속할 명확한 방향이 있을 때 탁월합니다 — 움직이는 카메라, 걷는 피사체, 흐르는 물, 또는 흘러가는 구름.
창의적 한계를 넓히세요
LTX-2.3 Video Extend는 영상 제작에서 가장 지속적인 마찰 요소 중 하나를 제거합니다: 고정된 클립 길이의 제약. 스마트폰으로 찍은 영상을 완성도 높은 콘텐츠로 늘리는 개인 크리에이터든, 정성껏 촬영한 B-롤을 연장하는 제작팀이든, 이 모델은 실험을 실용적으로 만드는 가격으로 자연스럽고 일관된 연속 장면을 제공합니다.
오늘 WaveSpeedAI에서 LTX-2.3 Video Extend를 사용해보세요 — 짧은 클립을 실제로 필요한 영상으로 바꿔보세요.





