只需一张图片、一句动作指令,Animate124轻松生成3D视频

AIGC动态1年前 (2023)发布 机器之心
14 0 0

只需一张图片、一句动作指令,Animate124轻松生成3D视频

AIGC动态欢迎阅读

原标题:只需一张图片、一句动作指令,Animate124轻松生成3D视频
关键字:模型,视频,华为,阶段,静态
文章来源:机器之心
内容字数:4853字

内容摘要:


机器之心专栏
机器之心编辑部Animate124,轻松将单张图片变成 3D 视频。近一年来,DreamFusion 引领了一个新潮流,即 3D 静态物体与场景的生成,这在生成技术领域引发了广泛关注。回顾过去一年,我们见证了 3D 静态生成技术在质量和控制性方面的显著进步。技术发展从基于文本的生成起步,逐渐融入单视角图像,进而发展到整合多种控制信号。
与此相较,3D 动态场景生成仍处于起步阶段。2023 年初,Meta 推出了 MAV3D,标志着首次尝试基于文本生成 3D 视频。然而,受限于开源视频生成模型的缺乏,这一领域的进展相对缓慢。
然而,现在,基于图文结合的 3D 视频生成技术已经问世!
尽管基于文本的 3D 视频生成能够产生多样化的内容,但在控制物体的细节和姿态方面仍有局限。在 3D 静态生成领域,使用单张图片作为输入已经能够有效重建 3D 物体。由此受到启发,来自新加坡国立大学(NUS)和华为的研究团队提出了 Animate124 模型。该模型结合单张图片和相应的动作描述,实现了对 3D 视频生成的精准控制。项目主页: https://animate124.github.io


原文链接:只需一张图片、一句动作指令,Animate124轻松生成3D视频

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...