谷歌发布“Vlogger”模型:单张图片生成10秒视频

AIGC动态9个月前发布 量子位
9 0 0

谷歌发布“Vlogger”模型:单张图片生成10秒视频

AIGC动态欢迎阅读

原标题:谷歌发布“Vlogger”模型:单张图片生成10秒视频
关键字:腾讯,视频,模型,图像,动作
文章来源:量子位
内容字数:3344字

内容摘要:


丰色 发自 凹非寺量子位 | 公众号 QbitAI谷歌发布了一个新的视频框架:
只需要一张你的头像、一段讲话录音,就能得到一个本人栩栩如生的演讲视频。视频时长可变,目前看到的示例最高为10s。
可以看到,无论是口型还是面部表情,它都非常自然。
如果输入图像囊括整个上半身,它也能配合丰富的手势:
网友看完就表示:
有了它,以后咱开线上视频会议再也不需要整理好发型、穿好衣服再去了。
嗯,拍一张肖像,录好演讲音频就可以(手动狗头)
用声音控制肖像生成视频这个框架名叫VLOGGER。
它主要基于扩散模型,并包含两部分:
一个是随机的人体到3D(human-to-3d-motion)扩散模型。
另一个是用于增强文本到图像模型的新扩散架构。
其中,前者负责将音频波形作为输入,生物的身体控制动作,包括眼神、表情和手势、身体整体姿势等等。
后者则是一个时间维度的图像到图像模型,用于扩展大型图像扩散模型,使用刚刚预测的动作来生成相应的帧。
为了使结果符合特定的人物形象,VLOGGER还将参数图像的po作为输入。
VLOGGER的训练是在一个超大的数据集(名叫MENTOR)上完成的。
有多大


原文链接:谷歌发布“Vlogger”模型:单张图片生成10秒视频

联系作者

文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...