AIGC动态欢迎阅读
原标题:比阿里EMO抢先开源!蔡徐坤“复出”唱RAP,腾讯AniPortrait让照片变视频,鬼畜区UP狂喜!看看哪家效果好
关键字:腾讯,面部,模型,视频,头部
文章来源:夕小瑶科技说
内容字数:2341字
内容摘要:
夕小瑶科技说 原创作者 | Zicy3月26号,腾讯放了个大招,开源了Audio2Video大模型AniPortrait,话不多说,先看效果!
不得不说,从肌肉运动到连贯程度,效果都是相当惊艳的。可以预见,以后的视频网站的鬼畜区又有新工具了
下面我们先来看看,这个模型究竟是个啥东西?
Audio2Video大模型的较量早在2月27号的时候,阿里就宣布要开源自己的图生视频大模型:EMO,还把论文挂到了Arxiv上面
https://arxiv.org/abs/2402.17485
EMO的效果也是相当的炸裂,你只需要提供一张照片和一段任意音频文件,EMO即可生成会说话唱歌的 AI 视频,以及实现无缝对接的动态小视频,最长时间可达1分30秒左右。表情非常到位,任意语音、任意语速、任意图像都可以一一对应。但现在,EMO的“开源”仓库是这样的
只有一个Readme文件,这波开源属于是开了个寂寞。有网友调侃道
好好好,没有人比你更懂开源。
阿里本来是靠EMO赚足了噱头,但这回让腾讯抢先一步,EMO可能是真要emo了。
AniPortrait是什么总地来说,框架分为两个阶段。首先,从音频中提取3D
原文链接:比阿里EMO抢先开源!蔡徐坤“复出”唱RAP,腾讯AniPortrait让照片变视频,鬼畜区UP狂喜!看看哪家效果好
联系作者
文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI一线开发者、互联网中高管和机构投资人。一线作者来自清北、国内外顶级AI实验室和大厂,兼备行业嗅觉与报道深度。