← 博客

PixVerse C1 Reference-to-Video 现已登陆WaveSpeedAI

PixVerse C1 参考图生视频——通过 @ref_name 提示词,基于参考图像生成主体与背景一致的视频。支持最高 1080p 分辨率,时长 1-15 秒。

2 min read
Pixverse Pixverse C1 Reference To Video PixVerse C1 参考图生视频——通过 @ref_name 提示词,基于参考图像生成主体与背景一致的视频。支持最高...
Try it

锁定主体与背景,生成视频

AI视频生成长期以来存在一个顽固的弱点:主体一致性 —— 生成一段”一名穿红色外套的女性走在巴黎街头”的视频,两秒后画面里可能变成了另一个人、另一件外套。参考驱动生成解决了这个问题:你提供主体你提供背景,模型将它们合成为视频。

我们很高兴地宣布,PixVerse C1 Reference-to-Video 现已在 WaveSpeedAI 上线 —— 生产级 REST API,通过 @ref_name 提示语法实现精细化参考控制。

什么是 PixVerse C1 Reference-to-Video?

PixVerse C1 Reference-to-Video 是 PixVerse C1 旗舰视频模型的参考引导变体。它不再单纯依赖文本或单张起始图像进行生成,而是让你上传带名称的参考图像,然后在提示词中使用 @ref_name 语法引用它们 —— 模型将合成一段与你上传内容保持主体和背景一致的视频。

示例:

上传 ref_1.png(特定角色)和 ref_2.png(特定海滩)。 提示词:“@ref_1 在日落时分沿着 @ref_2 漫步,从身后缓慢跟拍。” 输出:一段10秒的视频,角色外貌与 ref_1 一致,环境风格与 ref_2 一致,而非某种AI近似效果。

这对于品牌内容、角色叙事,以及任何主体必须可辨识的IP作品而言意义重大。

核心功能

@ref_name 提示语法 在提示词中通过名称引用多张上传图像,模型将每个引用解析为对应的上传素材。

主体与背景一致性 在整段视频时长内锁定角色身份和环境风格。

最高1080p,时长1–15秒 与 PixVerse C1 系列其他模型相同的画质等级。可选360p / 540p / 720p / 1080p。

多种宽高比 竖版、横版、电影比例 —— 匹配你的交付格式。

可选原生音频 启用 generate_audio_switch,一次调用即可获得带同步音频的视频。

实际应用场景

角色驱动的短片与网络剧

在一系列片段中制作外貌一致的主角 —— 相同面孔、相同服装、不同场景。系列内容的必备工具。

使用品牌素材的品牌内容

上传品牌角色、Logo或产品参考图 —— 模型将其合成到新的视频场景中,且不会产生偏移。

锁定演员的故事板预演

在不实际拍摄的情况下,预演”这位演员”与”那个地点”相遇的场景。通过参考图像锁定两者。

IP作品与授权角色

生成以特定角色IP为主体的营销短片、游戏过场动画或社交媒体内容,保持身份高度还原。

教育与教学内容

在系列教育视频中固定使用统一的讲师形象或吉祥物。

规模化个性化内容

将用户照片(作为 @ref_user)插入电影感场景的应用 —— 生日、庆典、个性化问候。

在 WaveSpeedAI 上快速开始

  1. 上传参考图像 —— 一张或多张图像,每张带有 ref_name 标签。
  2. 使用 @ref_name 编写提示词,指定各参考图像出现的位置。
  3. 选择时长、分辨率、宽高比和音频 —— 最高15秒、1080p。
  4. 提交 —— WaveSpeedAI API 处理剩余流程。

完整参数说明请见模型页面

定价

按秒计费,价格随分辨率和音频选项浮动:

  • 360p: 无音频 $0.03/秒,含音频 $0.04/秒
  • 540p: 无音频 $0.04/秒,含音频 $0.05/秒
  • 720p: 无音频 $0.05/秒,含音频 $0.065/秒
  • 1080p: 无音频 $0.095/秒,含音频 $0.12/秒

一段10秒720p含音频的视频约需 $0.65

为什么选择在 WaveSpeedAI 上运行 PixVerse C1 Reference-to-Video

  • 一个API,890+模型。 将参考转视频与超分、口型同步、编辑工具串联使用。
  • 无冷启动。 生产级延迟。
  • 按秒计费,无最低消费。
  • 水平扩展 —— 为大规模受众批量生成个性化内容。

专业使用技巧

  • 优质参考图像产出优质结果。 构图干净、单一主体、光线清晰。
  • 使用描述性名称命名参考图。 提示词中 @hero@cafe@img1@img2 更易读。
  • 克制使用多参考图。 每个提示词使用2–3个参考图能产出最干净的合成效果;超过这个数量后,模型的注意力会分散。
  • 清晰描述场景动作 —— 即使有参考锚点,运动依然由文本引导。
  • 先锁定身份,再调整风格。 若想保留参考角色但改变情绪氛围,保留参考图,再通过提示词关键词推动风格变化。

立即开始创作

PixVerse C1 Reference-to-Video 是 PixVerse 系列中应对规模化一致主体视频需求的最强方案 —— 现在只需一次API调用即可实现。

立即在 WaveSpeedAI 上体验 PixVerse C1 Reference-to-Video,生成身份可靠、主体一致的视频。