AIGC动态欢迎阅读
原标题:字节最新文生视频模型,引发围观!狐狸跳舞超丝滑,效果超Gen-2
关键字:视频,模块,图像,文本,模型
文章来源:夕小瑶科技说
内容字数:4295字
内容摘要:
夕小瑶科技说 原创作者 | 谢年年、python扩散模型带动了文生视频领域的发展。Runway、Pika 1.0、Morph、Moon Valley和Stable Video Diffusion model等模型在文生视频界崭露头角。只需文本描述,就能轻松生成视频。让人不禁感叹,世界已经发展成这样了吗?
国内公司也不甘示弱,字节团队最近发布了一个新的多级文生视频框架——MagicVideo-V2,集成了文本到图像(T2I),图像到视频(I2V)、视频到视频(V2V)和视频帧插值(VFI)模块组成多级端到端视频生成pipeline,能够根据文本描述生成美观且高分辨率的视频,在人工评估中,其性能优于上面提到的一些明星文生视频产品。
论文标题:MagicVideo-V2: Multi-Stage High-Aesthetic Video Generation
论文链接:https://arxiv.org/pdf/2401.04468.pdf
先来看看效果到底如何~更多示例与对比高清视频可在官方发布的链接中找到:https://magicvideov2.github.io/
模型结构如图所示,
原文链接:字节最新文生视频模型,引发围观!狐狸跳舞超丝滑,效果超Gen-2
联系作者
文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI应用开发者、算法工程师和研究人员。一线作者均来自清北、国外顶级AI实验室和互联网大厂,兼备媒体sense与技术深度。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...