AIGC动态欢迎阅读
原标题:长时舞蹈生成:数秒钟可生成极长的3D舞蹈
关键字:舞蹈,动作,序列,表现力,模型
文章来源:大数据文摘
内容字数:7833字
内容摘要:
大数据文摘受权转载自将门创投
针对目前音乐生成3D舞蹈动作中存在的长序列生成动作质量差,生成效率低的问题,本文提出了Lodge,可以高效地根据输入音乐生成极长的3D人体舞蹈动作。本文将Lodge设计为两阶段的由粗到细的Diffusion框架,并提出了特征化的舞蹈基元动作作为两阶段Diffusion的中间层表征,从而让Lodge可以兼顾全局编舞规律和局部的动作质量,并且增强舞蹈的表现力。此外,本文还提出了脚步优化模块以缓解脚和地面的接触问题如脚滑、脚步漂浮等。文本通过大量的定量和定性实验证明了Lodge的有效性。代码已经开源,欢迎体验。论文题目:
Lodge: A Coarse to Fine Diffusion Network for Long Dance Generation Guided by the Characteristic Dance Primitives
论文链接:
https://arxiv.org/abs/2403.10518
主页链接:
https://li-ronghui.github.io/lodge
代码链接:https://github.com/li-ro
原文链接:长时舞蹈生成:数秒钟可生成极长的3D舞蹈
联系作者
文章来源:大数据文摘
作者微信:BigDataDigest
作者简介:普及数据思维,传播数据文化
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...