Seedance 2.0教程 – AI视频创作完整操作手册与提示词指南
Seedance 2.0 开启了人工智能视频创作的新纪元,告别了过去“凭运气猜提示词”的时代,迈入了“导演级精细化操控”的全新阶段。该模型集成了多模态输入和独特的“@”引用机制,让创作者能够如同指挥一支真实的摄制团队般,精准调控视频的每一个环节。通过图片设定视觉风格,视频定义镜头,音频把握叙事节奏,文字勾勒故事情节,彻底摆脱了“输入提示词后便听天由命”的被动局面。本教程将系统性地剖析 Seedance 2.0 的十一项核心功能,并提供五种实用的创作模板,旨在帮助用户快速掌握这套前沿的创作语言,在商业级视频制作中充分释放 AI 的导演潜能。
Seedance 2.0 究竟是什么
Seedance 2.0 是由字节跳动倾力打造的多模态人工智能视频创作平台。其最性的突破在于颠覆了 AI 视频创作的交互模式——从以往那种“写完提示词,然后静待结果”的被动模式,升级为创作者能够像经验丰富的导演一样,对每一个创作元素进行精密的把控。用户可以同时输入图片、视频、音频和文字四种不同类型的文件,清晰地指示每种素材所承担的具体功能,然后将它们有机地融合,最终生成一段完整的视频作品。
关键参数深度解析
在正式投入创作之前,深入理解 Seedance 2.0 的各项输入限制和输出特性至关重要。
- 图片输入限制:系统最多支持上传九张图片。
- 视频输入限制:系统最多支持上传三个视频文件。
- 音频输入限制:系统支持 MP3 格式的音频文件,同样最多上传三个,且总时长不得超过十五秒。
- 文字输入支持:系统能够理解自然语言描述,无论是中文还是英文均可。
- 文件总数上限:所有上传的素材文件加起来,最多不得超过十二个。
- 生成视频时长:最终生成的视频长度可在四秒至十五秒之间选择,以满足实际创作需求。
- 声音输出配置:Seedance 2.0 生成的视频将自动配备合适的音效和背景音乐,无需额外的手动处理。
实用建议:并非素材越多越好,应优先上传对画面风格或节奏影响最大的素材。合理规划这十二个文件的使用额度,避免将宝贵的资源浪费在非关键性内容上。
在大多数情况下,选择“全能参考”模式能够最大程度地发挥 Seedance 2.0 的强大功能,因为它支持各类参考输入,是利用该模型最新能力的最佳方式。
核心操作流程指南
第一步:精准选择入口
访问即梦平台后,找到 Seedance 2.0,您将看到两个不同的入口选项。
- 首尾帧入口。 此选项适用于仅上传起始帧图片并附带文字描述的情况。
- 全能参考入口。 此选项适用于需要组合多种模态素材(图片、视频、音频、文字)的复杂创作场景。
如何选择? 请遵循一个简单的原则:当您仅使用一张图片和文字进行创作时,选择“首尾帧”;当您使用的素材超过一张图片,或包含视频、音频等多种元素时,请选择“全能参考”。
第二步:高效上传素材
点击上传按钮,然后从您的本地计算机选择文件。图片、视频和音频文件均可直接拖拽至指定区域。成功上传后,所有素材将清晰地显示在输入框区域,鼠标悬停在素材上即可进行预览。
小贴士: 在上传前,请仔细斟酌哪些素材最为关键。由于文件总数限制为十二个,请优先上传对画面风格和节奏影响最大的素材。
第三步:运用“@”符号分配任务(至关重要)
这一步骤是 Seedance 2.0 最为核心的操作,也是许多新手用户容易忽视的关键环节。
在上传完所有素材后,您需要在提示词中通过“@”符号后跟素材名称的方式,明确告知模型每个素材的具体用途。模型无法自行推断,若不明确指示,则可能导致素材的误用。
如何激活“@”功能:
- 方法一: 在输入框中直接输入“@”字符,系统将自动弹出已上传素材的列表,点击您想要引用的素材,它便会插入到输入框中。
- 方法二: 点击输入框旁边的参数工具栏中的“@”按钮,同样会弹出素材列表供您选择。
“@”引用的正确书写示例:
- 指定起始帧与参考对象:将“@图片1”设定为起始帧,并参考“@视频1”的镜头语言,同时“@音频1”用于背景配乐。
- 指定角色形象:“@图片1”中的女性角色将作为主角,“@图片2”中的男性角色将作为配角。
- 指定镜头参考:完全模仿“@视频1”中的所有镜头效果和方式。
- 指定场景参考:左侧场景参考“@图片3”的视觉风格,右侧场景参考“@图片4”。
- 指定动作参考:“@图片1”中的人物动作模仿“@视频1”中的舞蹈姿态。
- 指定声音音色参考:旁白的音色模仿“@视频1”中的声音特点。
防范错误提醒:当素材数量较多时,务必反复检查每一个“@”引用是否准确对应。将图片误作视频引用,或将角色 A 的素材错标为角色 B,都可能导致生成结果的混乱。将鼠标悬停在您引用的素材上,可以预览其内容,从而避免插入错误。
第四步:精心撰写提示词
完成“@”任务分配后,接下来的工作便是使用自然语言精确描述您期望的画面和动作。
撰写提示词的四个实用技巧:
技巧一:按时间线分段叙述。 如果视频包含多个画面切换或剧情转折,建议按照秒数进行分段描述。
例如:
- 0-3秒画面:男主角手中高举篮球,目光投向镜头,口中说道:“我只是想喝杯酒,难道要穿越了……”
- 4-8秒画面:镜头突然剧烈晃动,场景切换至一座古宅的雨夜,一位身着古装的女子冷峻地凝视着镜头方向。
- 9-13秒画面:镜头切换至一位身着明代服饰的人物……
如此精细的描述,模型将能够更准确地把握每一段画面的节奏和内容。
技巧二:明确区分“参考”与“编辑”。 这两个概念存在显著差异。“参考 @视频1 的运镜”意味着借鉴其镜头方式来生成新的内容;而“将 @视频1 中的女生替换成戏曲花旦”则是在原有视频基础上进行修改。明确表述,模型才能做出正确的响应。
技巧三:详述镜头语言。 无需担心描述过多,当前模型已具备强大的理解能力。推、拉、摇、移、跟拍、环绕、俯拍、仰拍、一镜到底、希区柯克变焦、鱼眼镜头……这些专业术语模型均能识别。即使不熟悉术语,用通俗的语言描述也同样有效,例如“镜头从背后缓慢地转到正面”。
技巧四:连续动作与过渡描述。 若希望角色执行一系列连贯的动作,请务必加入过渡关系的描述,例如“角色从跳跃直接过渡到翻滚,保持动作的流畅性”,以避免画面出现不自然的跳帧。
Seedance 2.0 的十大核心能力
能力一:基础画面质量实现质的飞跃
Seedance 2.0 在底层进行了全面的优化升级,使得物理规律更加符合现实,动作更加流畅自然,视觉风格也更为稳定。其基础画面生成能力已取得显著进步:
- 更符合物理规律的呈现:衣物飘动、水花飞溅、物体碰撞等效果更加逼真。
- 更自然流畅的动作表现:人物的行走、奔跑、复杂动作不再显得僵硬。
- 更精准的指令理解:当您输入“女孩优雅地晾晒衣物”时,模型能够真正理解“优雅”所蕴含的含义。
- 更稳定的风格保持:整个视频的画面风格从始至终保持一致,不会出现突兀的风格转变。
能力二:多模态素材的组合运用
这是 Seedance 2.0 最为核心的升级——能够将任何素材作为“参考”对象。
核心公式: Seedance 2.0 = 多模态参考(万物皆可参考)+ 强大的创意生成能力 + 精准的指令理解
可参考的元素包括:
- 动作、特效、视觉形式
- 镜头方式、镜头语言表达
- 人物形象、场景的整体风格
- 声音的表现、音乐的节奏
实用创作技巧:如何撰写提示词
- 拥有首帧图,同时希望参考视频中的动作:提示词可写为“@图1 作为首帧,请参考 @视频1 中的打斗动作”。
- 延长现有视频的时长:提示词可写为“请将 @视频1 延长 5 秒”(同时在生成时长中选择 5 秒)。
- 融合多个视频片段:提示词可写为“在 @视频1 和 @视频2 之间插入一个新场景,内容为 xxx”。
- 直接使用视频中的声音:无需单独上传音频文件,直接引用视频即可。
- 实现连续动作的衔接:提示词可写为“请确保角色从跳跃动作无缝过渡到翻滚动作,保持动作的连贯性”。
能力三:整体一致性的全面提升
Seedance 2.0 在一致性方面投入了巨大的精力。上传角色参考图后,整段视频中人物的面部特征、服装样式、体态姿势都能够保持高度一致。对于商品展示,即使进行多角度的旋转拍摄,其正面、侧面的材质细节也不会丢失。
能够保持一致性的关键元素:
- 人脸特征(五官、肤色、表情风格)
- 服装细节(纹理、颜色、图案)
- 品牌标识(Logo、字体、色彩搭配)
- 场景风格(光影效果、整体氛围、色调选择)
能力四:镜头与动作的精准复刻
只需两步即可实现:上传一段您喜欢的镜头参考视频,并在提示词中撰写“请参考 @视频1 的运镜效果”。
模型能够识别参考视频中的镜头方式(如推拉摇移、环绕、跟拍、变焦、一镜到底等),并将相同的运镜逻辑应用到新的内容创作中。
可复刻的镜头类型:
- 希区柯克变焦
- 环绕跟拍
- 一镜到底
- 推拉摇移
- 低角度仰拍
- 俯瞰视角
能力五:创意模板与特效的精准复刻
看到令人印象深刻的广告创意、炫酷的特效或电影片段?直接将其上传作为参考,模型便能识别其中的动作节奏、视觉结构和镜头语言,并复刻出属于您自己的版本。
可复刻的创意类型:
- 创意(如拼图破碎、粒子消散、瞳孔穿越等)
- 广告成片风格
- 音乐录影带(MV)的节奏剪辑
- 电影特效镜头
- 变装/换脸效果
能力六:视频的时长延长与无缝衔接
您是否拥有一段满意的视频,但希望在此基础上继续创作?或者需要向前补充一段前情?视频延长功能将为您轻松解决这些问题。
- 向后延长:上传已有视频,并在提示词中写明“请将 @视频1 延长 X 秒”,同时描述新增画面的内容。
- 向前延长:在提示词中写明“请向前延长 X 秒”,并描述前情内容。
使用规则:
- 明确告知模型“请将 @视频1 延长 X 秒”。
- 生成时长需设置为延长部分的时长(例如,延长 5 秒,则生成时长选择 5 秒)。
- 您可以在延长部分加入新的剧情和画面描述。
- 该功能支持向前或向后延长。
能力七:声音表现更加逼真
Seedance 2.0 生成的视频将自带音效和背景音乐,并且声音质量相较于以往有了显著的提升。
几种与声音相关的创意玩法:
- 音色参考:上传一段视频或音频,让模型模仿其中人物的说话音色或旁白风格。
- 多语言对话支持:人物角色可以流畅地说出中文、英文、西班牙语、韩语等多种语言,并且情感表达相当到位。
- 多角色对话模拟:支持在同一段视频中,多个角色进行各自的台词表达。例如,猫狗之间的脱口秀、古装剧中的对白、军事题材的战术对话,都有成功的应用案例。
- 方言支持:有用户成功让角色用四川话点餐,效果相当生动有趣。
- 音效匹配度高:行走声、雷鸣声、嘈杂的人群声、装备碰撞声等环境音效,都能够比较准确地生成。
能力八:一镜到底的流畅性显著增强
Seedance 2.0 在这一方面取得了明显的进步。上传多张不同场景的图片,并撰写“请使用一镜到底的追踪镜头,从街头开始跟随跑步者上楼梯、穿过走廊、进入屋顶,最终俯瞰城市全景”,模型能够实现场景之间的自然过渡,有效避免了明显的断裂感。即使是更复杂的一镜到底镜头,也能够成功完成。
实用技巧:请按顺序排列多张图片,模型将会在一镜到底的镜头中依次展现这些场景。
能力九:视频编辑功能的强大升级
您是否拥有一段视频,但不想从头开始制作,只想修改其中的一部分?现在,您可以直接将现有视频作为输入,进行定向的修改操作。
- 角色替换:将视频中的角色 A 替换为角色 B,同时保持动作和表情不变。例如,“请将视频1中的女主唱替换为图片1的男主唱,其动作请完全模仿原视频”。
- 剧情颠覆性修改:在保持场景和角色不变的前提下,彻底改写剧情走向。有人将一段深情桥段的赏月视频,改写成了男主角将女主角推下水的反转剧情。更有甚者,将一段紧张的酒吧谈判场景,改写成了掏出一大包零食的搞笑反转。
- 元素修改:可以修改发型、添加道具、更换背景。例如,“请将视频1中女人的发型改为红色长发,并在她身后缓缓浮出半个脑袋的 @图片1 中的大白鲨”。
- 品牌植入:在现有视频中插入品牌元素。例如,在炸鸡的视频中,加入印有品牌 Logo 的纸袋特写。
能力十:音乐卡点功能的精准实现
上传一段具有节奏感的音乐视频作为参考,模型能够识别音乐的节拍变化,并使画面切换精准地契合音乐的节奏点。
- 基础卡点功能:上传素材图片和音乐参考视频,提示词可写为“请根据 @视频 中的画面节奏进行卡点”。
- 动感卡点增强:提示词可写为“请使画面中的人物动作更具动感,整体画面风格更显梦幻,增强画面张力,允许根据音乐需求自行调整参考图的景别”。
- 风光卡点优化:多张风景图片搭配音乐,提示词可写为“请参考 @视频 中的画面节奏,在过程中根据画面风格及音乐节奏进行卡点”。
能力十一:情绪演绎更加细腻到位
角色表情僵硬、情绪转换生硬,一直是人工智能视频创作中存在的难题。Seedance 2.0 在这方面实现了显著的改进。
提示词撰写技巧精粹
参考视频运用
- 通用写法:“请参考这个视频”。
- 进阶写法:“请参考 @视频1 的镜头方式和效果”。
图片素材使用
- 通用写法:“请使用这张图”。
- 进阶写法:“请将 @图片1 作为起始帧,人物形象请参考 @图片2”。
节奏控制要点
- 通用写法:“请制作一段有节奏感的视频”。
- 进阶写法:“请参考 @视频1 的画面节奏和音乐卡点”。
视频延长操作
- 通用写法:“请延长视频”。
- 进阶写法:“请将 @视频1 延长 5 秒,新增内容为 xxx”。
人物替换指令
- 通用写法:“请换一个人”。
- 进阶写法:“请将 @视频1 中的女主替换为 @图片1 的形象,其动作请完全模仿原视频”。
黄金公式:@素材 + 用途说明 + 具体画面描述 + 时间线(可选)
规避常见误区指南
- 切勿遗漏“@”符号:上传了素材但提示词中并未引用,相当于素材白费。模型无法自行判断每张图片的具体用途。
- “@”引用务必准确:素材数量较多时,最容易出现引用错误。完成提示词撰写后,请花费短暂时间检查每一个“@”引用是否正确。
- 视频延长时需选择正确时长:延长 5 秒,则生成时长务必选择 5 秒,否则可能生成不必要的内容。
- 参考视频不宜过长:总时长上限为 15 秒,且视频越短,生成的准确性越高。若仅需参考特定片段的运镜,截取关键几秒即可。
- 多次尝试生成:人工智能生成本身带有一定的随机性,相同的输入可能需要尝试三次才能获得理想效果。若初次生成不满意,请勿轻易放弃,多尝试几次,择优选取。
- 从简到繁的循序渐进:若您是新手,建议从“单张图片+文字描述”开始,熟练掌握后再逐步加入视频参考和音频参考,遵循循序渐进的学习原则。


粤公网安备 44011502001135号