- 基于一张或多张参考图片/视频,生成与其风格、人物、场景一致的新视频
- 支持角色一致性、风格迁移、多素材组合
- 支持参考音色(reference_voice)控制角色声音
认证
请求参数
视频生成模型名称,固定为
wan2.7-r2v视频内容描述,最多 5000 字符多图/多视频时用”图1”、“图2”、“视频1”等序号指代对应参考素材(按传入顺序)示例:
"图1中的人物来到图2的场景中,环顾四周"带角色的图片数组,与
video_urls 至少传其一每个对象字段:url(string):图片 URLrole(string):图片角色reference_image- 参考图(默认)first_frame- 指定首帧(传入后size参数无效,宽高比以首帧图片为准)
reference_voice(string,可选):该参考角色的音色样本音频 URL,用于控制生成视频中角色的声音
参考视频 URL 数组,最多 5 条(图片 + 视频总数 ≤ 5)与
image_with_roles 至少传其一视频限制:
- 格式:mp4、mov
- 时长:1~30s
- 分辨率:宽度和高度范围为 [240, 4096] 像素
- 宽高比:1:8 ~ 8:1
- 文件大小:不超过 100MB
反向提示词,描述不希望出现的内容,最多 500 字符
视频分辨率可选值:
720P- 标清1080P- 高清(默认)
视频时长(秒)支持范围:
2 ~ 15 秒默认值:5画面宽高比支持的格式:
16:9- 横版宽屏(默认)9:16- 竖版长屏1:1- 正方形4:3- 横版3:4- 竖版
是否开启 prompt 智能改写对较短提示词效果提升明显,但会增加耗时默认值:
true是否在生成的视频上添加 “AI生成” 水印
true:添加水印false:不添加水印(默认)
种子整数,用于控制生成内容的随机性取值范围:
≥0 的整数- 相同的请求下,模型收到不同的 seed 值(如:不指定 seed 值),将生成不同的结果
- 相同的请求下,模型收到相同的 seed 值,会生成类似的结果,但不保证完全一致
响应
响应状态码,成功时为 200
返回数据数组
使用场景
场景 1:单参考图生成(最简)
场景 2:多参考图生成
场景 3:基于参考视频生成
场景 4:指定首帧 + 参考图
场景 5:参考图 + 参考音色(精确方式)
图片指代规则
多张参考图时,在prompt 中用数字序号指代:
- 第 1 张图 → “图1” 或 “第一张图”
- 第 1 个视频 → “视频1” 或 “第一个视频”
查询任务结果视频生成为异步任务,提交后会返回
task_id。使用 获取任务状态 接口查询生成进度和结果。
