长时舞蹈生成:数秒钟可生成极长的3D舞蹈

长时舞蹈生成:数秒钟可生成极长的3D舞蹈

AIGC动态欢迎阅读

原标题:长时舞蹈生成:数秒钟可生成极长的3D舞蹈
关键字:舞蹈,动作,序列,表现力,模型
文章来源:大数据文摘
内容字数:7833字

内容摘要:


大数据文摘受权转载自将门创投
针对目前音乐生成3D舞蹈动作中存在的长序列生成动作质量差,生成效率低的问题,本文提出了Lodge,可以高效地根据输入音乐生成极长的3D人体舞蹈动作。本文将Lodge设计为两阶段的由粗到细的Diffusion框架,并提出了特征化的舞蹈基元动作作为两阶段Diffusion的中间层表征,从而让Lodge可以兼顾全局编舞规律和局部的动作质量,并且增强舞蹈的表现力。此外,本文还提出了脚步优化模块以缓解脚和地面的接触问题如脚滑、脚步漂浮等。文本通过大量的定量和定性实验证明了Lodge的有效性。代码已经开源,欢迎体验。论文题目:
Lodge: A Coarse to Fine Diffusion Network for Long Dance Generation Guided by the Characteristic Dance Primitives
论文链接:
https://arxiv.org/abs/2403.10518
主页链接:
https://li-ronghui.github.io/lodge‍
代码链接:https://github.com/li-ro


原文链接:长时舞蹈生成:数秒钟可生成极长的3D舞蹈

联系作者

文章来源:大数据文摘
作者微信:BigDataDigest
作者简介:普及数据思维,传播数据文化

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...