OmniHuman

OmniHuman – 字节跳动推出的单张照片生成全身动态视频生成框架

OmniHuman是什么

OmniHuman是字节跳动推出的一种先进的多模态视频生成框架,能够根据单一的人类图像及信号(如音频、视频或两者的结合)生成栩栩如生的人类视频。该框架采用多模态条件混合训练策略,有效克服了以往方法因高质量数据稀缺而造成的性能瓶颈,支持多种宽高比的图像输入(涵盖肖像、半身和全身图像),并能够适应多种场景需求。OmniHuman在歌唱、对话和手势处理等多个领域表现优异,支持多种视觉和音频风格,能够利用音频、视频及其组合来生成高质量的视频内容。

OmniHuman

OmniHuman的主要功能

  • 多模态驱动的视频生成
    • 支持音频驱动(如对话、唱歌)和姿势驱动(如手势、动作),并可融合两者生成流畅自然的人类动作视频。
    • 兼容多种输入形式,包括面部特写、半身像、全身像,适应不同比例和风格的图像。
  • 高逼真度与多样化动作
    • 生成的视频在视觉效果上高度真实,具备自然的面部表情、肢体动作和流畅的动态表现。
    • 能够处理复杂动作和物体交互,例如在唱歌时演奏乐器、手势与物体之间的自然互动等。
  • 灵活的视频生成
    • 支持任意宽高比和时长的视频生成,根据输入信号生成不同长度的视频片段。
    • 兼容多种图像风格,包括写实、卡通和风格化的人物表现。
  • 多场景适应性:在各种环境中生成高质量视频,涵盖不同的背景、光照条件和摄像角度。

OmniHuman的技术原理

  • 混合条件训练策略
    • 多条件融合:将文本、音频和姿势等多种相关条件混合于训练过程中,以减少数据选择的浪费,充分利用不同条件之间的互补性。
    • 分阶段训练:基于三阶段的训练策略,逐步引入不同条件(文本、音频、姿势),根据条件的强弱调整训练比例,从而优化模型的泛化能力。
    • 训练原则:更强条件的任务需要使用较弱条件的任务及其对应数据,以扩大数据规模。条件越强,训练比例应越低,以避免模型过度依赖于强条件。
  • 扩散变换器架构
    • 基于DiT的模型:OmniHuman基于先进的视频生成模型架构DiT,利用因果3DVAE将视频投影至潜在空间,并以流匹配作为训练目标。
    • 条件注入
      • 音频条件:通过wav2vec模型提取音频特征,并将其与视频帧特征结合,生成音频令牌,基于交叉注意力机制注入至模型中。
      • 姿势条件:利用姿势引导器处理姿势条件,将姿势热图特征与视频帧特征结合,生成姿势令牌,连同噪声潜在表示一起输入模型。
      • 文本条件:保留DiT架构中的文本分支,用于描述生成视频的内容。
    • 参考条件处理:采用创新的参考条件策略,通过修改3D旋转位置嵌入,将参考图像特征与视频特征融合,无需额外的网络模块。
    • 推理策略
      • 分类器引导(CFG):在推理过程中,对音频和文本条件应用CFG策略,通过逐步降低CFG强度,平衡表达性与计算效率,减少生成视频中的瑕疵。
      • 长视频生成:使用上一个视频片段的最后几帧作为帧,确保长视频生成中的时间连贯性和身份一致性。

OmniHuman的项目地址

OmniHuman的应用场景

  • 影视与娱乐:生成虚拟角色动画、虚拟主播和音乐视频等,提升内容创作的效率和视觉吸引力。
  • 游戏开发:为游戏角色和非玩家角色(NPC)生成自然动作,增强游戏的沉浸感和互动性。
  • 教育与培训:创建虚拟教师和模拟训练视频,辅助语言学习与职业技能培训。
  • 广告与营销:生成个性化广告和品牌推广视频,提升用户参与度和内容吸引力。
  • 社交媒体与内容创作:帮助创作者快速生成高质量短视频,支持互动视频创作,增加内容的趣味性。
阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...