WAN 2.7: 새로운 기능, API 액세스 및 업그레이드 경로
WAN 2.7은 Alibaba의 주요 업그레이드로, 첫/마지막 프레임 제어, 9그리드 I2V, 음성 참조, 명령어 편집을 제공합니다. 개발자가 알아야 할 모든 것.
안녕하세요, 여러분. Dora입니다! 저는 Wan 모델 패밀리를 2.1 버전부터 주의 깊게 지켜봐 왔습니다. 프로덕션 파이프라인에서 오픈소스 모델이 한번 주목을 받기 시작하면, 관련 보도보다 모델 자체가 더 빠르게 발전하는 경향이 있기 때문입니다. WAN 2.7 은 아직 출시 중으로 — 2026년 3월 내 런칭이 예정되어 있어 — 이 글은 출시 후 리뷰가 아닙니다. 이미 2.5를 운영 중인 팀이 인프라를 재구성할지, 아니면 기다릴지 결정하기 위한 사전 체크리스트입니다.
과장 없이. 확인된 것, 아직 불분명한 것, 그리고 …여러분의 빌드 큐에 어떤 의미인지만 다룹니다. Wan 같은 모델이 프로덕션 스택에서 어떤 위치를 차지하는지 아직 파악 중이라면, 실제 워크플로우에서 AI 비디오 생성 도구가 어떻게 사용되는지에 대한 이 분석 이 스펙을 더 깊이 파고들기 전에 판단의 근거가 되어줄 것입니다.

WAN 2.7 60초 요약 (짧게 보는 핵심)
제품 또는 엔지니어링 관점에서 평가한다면: WAN 2.7은 순수한 품질 향상보다는 기능적 확장에 가깝게 자리잡고 있습니다. 핵심은 “더 좋은 영상”이 아니라 “더 많은 컨트롤 포인트”입니다. 시각적 품질, 오디오 생성, 모션 역학 전반에 걸친 개선이 있지만, 더 흥미로운 추가 사항은 구조적인 부분입니다: 첫 프레임/마지막 프레임 제어, 9-그리드 멀티 입력 I2V, 피사체+음성 레퍼런스, 그리고 지시 기반 편집.
2.5 대비 차이는 해상도가 아닙니다. 단일 호출에서 모델이 이제 수용하는 앵커링 입력의 수입니다.
WAN 2.7의 새로운 기능
첫 프레임 & 마지막 프레임 비디오 제어
첫-마지막 프레임 방식은 두 장의 이미지로 영상의 시작과 끝을 정의하고, 모델이 중간 내용을 자동으로 생성하는 방식입니다. 이 기능은 이전 Wan 시리즈(Wan2.1-FLF2V-14B 참조)에서 별도 모델로 존재했지만, 2.7에서는 별도 체크포인트가 아닌 모델 내부에 통합됩니다.
프로덕션 팀을 위한 설명: 이 기능은 정의된 키프레임이 있을 때 가장 유용합니다 — 정지된 제품 샷, 움직이는 제품 샷 — 수동 애니메이션 작업 없이 전환을 보간하고 싶을 때입니다. 엔드포인트는 결정론적입니다. 중간에 무슨 일이 일어나는지는 여전히 확률적이지만, 구성적 가드레일은 갖춰집니다.
9-그리드 이미지-투-비디오 (3×3 멀티 입력)
WAN 2.7은 3×3 그리드 합성 방식을 지원하여, 단일 영상 생성 작업에 최대 9개의 레퍼런스 이미지를 구조화된 입력으로 제출할 수 있습니다. 이는 단일 프레임 I2V와 의미 있게 다릅니다.
실용적인 적용: 다양한 각도나 조명 조건에서 캐릭터 일관성 있는 콘텐츠를 생성할 때, 이제 단일 앵커 대신 레퍼런스 그리드를 제공할 수 있습니다. 다중 레퍼런스 일관성을 다루는 다양한 도구를 비교하고 싶다면, 멀티 페이스 및 멀티 입력 지원의 베스트 비디오 페이스 스왑 도구 가이드 에서 현재 솔루션이 여전히 어려움을 겪고 있는 부분을 확인할 수 있습니다. I2V 배치 작업의 품질 검수를 비싸게 만드는 원샷 운 요소를 줄여줍니다. 출시 시 정확한 API 파라미터 구조를 확인하세요 — 이 글 작성 시점에서 그리드 입력의 엔드포인트 스키마는 공식적으로 발표되지 않았습니다.
피사체 + 음성 레퍼런스
WAN 2.7은 시각적 피사체 레퍼런스와 음성 레퍼런스를 결합하여, 캐릭터의 외모와 목소리 모두 입력과 일관성 있는 영상을 생성할 수 있습니다. 이는 Wan 2.6의 R2V 모델에서 도입된 기능의 확장으로 — 외모와 목소리가 담긴 캐릭터 레퍼런스 영상을 업로드하고, 텍스트 프롬프트로 동일한 캐릭터가 등장하는 새로운 장면을 생성할 수 있었습니다.
2.7에서는 별도 모델 엔드포인트가 아닌 더 긴밀하게 통합될 것으로 기대됩니다. 캐릭터 중심의 숏폼 콘텐츠나 로컬라이제이션 파이프라인을 구축하는 팀에게는 …반복적인 배치 호출에서 음성 레퍼런스 처리가 안정적이라는 전제 하에, 가장 명확한 프로덕션 ROI를 가진 기능입니다. 참고로 여기가 바로 현재 AI 비디오 페이스 스왑 파이프라인이 대규모에서 무너지기 시작하는 지점이기도 합니다 — 특히 신원과 음성 일관성이 모두 요구될 때.

지시 기반 비디오 편집
WAN 2.7은 자연어 지시를 사용하여 기존 영상을 편집할 수 있습니다 — 배경 변경, 조명 수정, 또는 변경 사항을 설명하면 모델이 나머지를 처리하는 방식으로 캐릭터의 의상을 변경합니다.
이는 생성에서 편집으로의 의미 있는 전환입니다. 후반 작업 교정 루프를 운영하는 제품 팀에게, 소규모 변경을 위한 수동 로토스코핑 및 컴포지팅 작업의 가벼운 대안을 제공합니다. 핵심 미지수는 편집이 모션 인접 요소(예: 움직이는 피사체의 의복)에 영향을 미칠 때 긴 클립에서 시간적 일관성을 모델이 어떻게 처리하는가입니다. 유사한 도구들이 역사적으로 성능이 저하되는 지점이 바로 여기입니다.
공식 Alibaba Cloud Model Studio 문서에는 이미 현재 Wan 라인업의 관련 편집 엔드포인트가 다루어져 있어, 2.7에서 보게 될 API 패턴의 기준을 제공합니다.
비디오 재현 / 복제 [확인 필요]
이 기능 — 모션 구조를 유지하면서 스타일이나 피사체 변경으로 기존 영상을 재현하거나 복제하는 것 — 은 WAN 2.7의 제3자 요약에 등장했습니다. 이 글 작성 시점에서 Alibaba 공식 문서에서 독립적으로 확인되지 않았습니다. Alibaba의 공식 릴리스 노트에서 확인될 때까지 이 기능에 워크플로우 의존성을 구축하지 마세요. 지금 업그레이드 프로젝트의 범위를 정하고 있다면 탐색적 항목으로 표시하세요.
변경되지 않는 것 (2.6의 아키텍처 연속성)
기반 DiT (Diffusion Transformer) 아키텍처는 이어집니다. Wan 시리즈는 주류 비디오 DiT 아키텍처를 기반으로 한 Transformer 컴포넌트를 사용하며, Full Attention 메커니즘을 채택하여 장거리 시공간 의존성을 정확하게 포착하고, 높은 시간적·공간적 일관성을 보장합니다.
로컬 추론을 실행하는 팀에게 중요한 점: GPU 메모리 프로파일과 양자화 방식은 크게 변경되지 않습니다. 2.6 추론 스택이 최적화되어 있다면(FP8 연산, 멀티 GPU 샤딩), 그 투자는 이어집니다. 완전히 새로운 배포 아키텍처를 기대하지 마세요.
API 접근 및 가용성 — 확인된 것과 미정인 것
공식 접근 경로 (DashScope / Wan.video)
이전 Wan 버전의 두 가지 확인된 공식 채널은 Alibaba Cloud의 DashScope 플랫폼 — API 키 프로비저닝과 모델 접근을 처리 — 과 크리에이터 워크플로우를 위한 Wan.video입니다. 두 채널 모두 출시 시 2.7을 지원할 것으로 예상되지만, 지역별 가용성(특히 국제 계정 대 중국 본토)은 릴리스 시 확인해야 합니다.
DashScope API 키는 DASHSCOPE_API_KEY 환경 변수에서 로드되며, 국제 사용자는 dashscope-intl.aliyuncs.com을 사용합니다 — 기존 인프라를 고려했을 때 같은 패턴이 2.7에도 거의 확실히 적용될 것입니다.
제3자 API 가용성
이 글 작성 시점에서 WAN 2.7은 제3자 API 집합체에서 아직 확인되지 않았습니다. 2.2 이후의 패턴 — Wan 2.1과 2.2 모두 오픈소스 모델 가중치 출시 당일 ComfyUI 네이티브 지원이 제공된 것 — 을 기반으로, 2.7이 공개 가중치와 함께 출시된다면 커뮤니티 통합이 빠르게 따라올 것으로 예상됩니다.
2.7이 오픈소스로 출시될지는 자체적으로도 미확인입니다. 아래 FAQ를 참조하세요.

지금 WAN 2.7을 우선시해야 할 팀
레퍼런스 중심 비디오 프로덕션을 하는 팀
파이프라인이 이미 샷 간 캐릭터 일관성에 의존하고 있고 — 여러 번의 생성 패스나 ControlNet 우회 방법으로 보완해왔다면 — 피사체 + 음성 레퍼런스와 멀티 프레임 그리드 입력이 그 오버헤드를 가장 직접적으로 줄여주는 두 가지 기능입니다. 업그레이드 범위를 파악할 가치가 있습니다.
멀티 입력 I2V가 필요한 빌더
단일 이미지 I2V는 일관성이 필요할 때까지만 작동합니다. 9-그리드 입력은 레퍼런스 영역을 크게 변경합니다. 이를 시뮬레이션하기 위해 우회 방법을 배치하고 있었다면, 2.7이 여러 API 호출을 하나로 통합할 수 있습니다.
WAN 2.5에서 기다릴 수 있는 크리에이티브 팀
2.5 워크플로우가 안정적이고 새로운 기능이 활성 프로덕션 병목에 매핑되지 않는다면, 서두를 필요가 없습니다. 모델이 아직 출시 중입니다. 무언가를 재구성하기 전에 처음 2주간의 커뮤니티 피드백이 엣지 케이스를 드러낼 때까지 기다리세요.

FAQ
- WAN 2.7은 언제 API를 통해 공식 제공되나요? 2026년 3월 내 출시가 예정되어 있습니다. 지역별 정확한 API 가용성 날짜: 아직 미확인.
- WAN 2.7은 WAN 2.2처럼 오픈소스인가요? 미확인. Wan 2.2는 Apache 2.0 하에 출시되어 상업적 이용과 ComfyUI 통합이 가능했습니다. 2.7이 같은 라이선스를 따를지는 사전 출시 자료에서 명시되지 않았습니다.
- WAN 2.7은 ComfyUI를 지원하나요? 아직 확인된 통합 없음. 이전 릴리스 — Wan 2.1과 2.2 모두 출시 당일 또는 근처에 ComfyUI 지원이 있었음 — 를 고려하면, 모델 가중치가 공개된다면 커뮤니티 노드가 빠르게 따라올 것으로 예상됩니다.
- WAN 2.5와 비교한 가격은 어떻게 되나요? 발표된 가격 없음. Wan 모델 시리즈는 일반적으로 DashScope를 통해 초당 또는 영상당 요금이 부과되었습니다. 업데이트된 요금은 출시 시 Alibaba Cloud Model Studio 가격을 확인하세요.
- 오늘 제3자 API 제공업체를 통해 WAN 2.7에 접근할 수 있나요? 아직 불가합니다. 모델이 아직 출시되지 않았습니다. 공식 Wan GitHub와 DashScope 문서에서 릴리스 확인을 모니터링한 후, 해당 플랫폼 지원을 확인하세요.
출시 후 주목해야 할 것들
2.7이 처음 몇 주 동안 안정화되면서 추적할 몇 가지 사항:
— 지시 편집의 시간적 일관성: 지시 기반 편집은 미리보기 프레이밍 대비 실제로 가장 다르게 동작할 가능성이 높은 기능입니다. 커뮤니티 출력물을 주의 깊게 관찰하세요.
— 오픈소스 가중치 릴리스: 가중치가 공개적으로 출시된다면, 며칠 내에 ComfyUI 워크플로우, Diffusers 통합, 양자화 변형을 기대하세요. 그렇지 않다면, DashScope API가 주요 접근 경로로 남고 — 지역별 레이턴시가 실제 워크플로우 변수가 됩니다.
— 비디오 재현 기능 상태: 이것은 공식 출처가 필요합니다. Alibaba가 명시적으로 확인할 때까지 아무것에도 스펙으로 포함하지 마세요.





