AIGC动态欢迎阅读
原标题:无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造
关键字:视频,数据,时序,文本,分支
文章来源:机器之心
内容字数:3210字
内容摘要:
机器之心专栏
机器之心编辑部在过去短短两年内,随着诸如LAION-5B 等大规模图文数据集的开放,Stable Diffusion、DALL-E 2、ControlNet、Composer ,效果惊人的图片生成方法层出不穷。图片生成领域可谓狂飙突进。
然而,与图片生成相比,视频生成仍存在巨大挑战。首先,视频生成需要处理更高维度的数据,考虑额外时间维度带来的时序建模问题,因此需要更多的视频 – 文本对数据来驱动时序动态的学习。然而,对视频进行准确的时序标注非常昂贵。这限制了视频 – 文本数据集的规模,如现有 WebVid10M 视频数据集包含 10.7M 视频 – 文本对,与 LAION-5B 图片数据集在数据规模上相差甚远,严重制约了视频生成模型规模化的扩展。
为解决上述问题,华中科技大学、阿里巴巴集团、浙江大学和蚂蚁集团联合研究团队于近期发布了 TF-T2V 视频方案:论文地址:https://arxiv.org/abs/2312.15770
项目主页:https://tf-t2v.github.io/
即将开源代码地址:https://github.com/ali-vilab/i2
原文链接:无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...