AIGC动态欢迎阅读
原标题:首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2
关键字:视频,图像,研究者,时间,模型
文章来源:机器之心
内容字数:9833字
内容摘要:
机器之心报道
编辑:杜伟、蛋酱文生视频这个战场,入局的玩家越来越多了。这次是阅后即焚 SnapChat 背后的公司。
最近,OpenAI 视频生成模型 Sora 的爆火,给基于 Transformer 的扩散模型重新带来了一波热度,比如 Sora 研发负责人之一 William Peebles 与纽约大学助理教授谢赛宁去年提出的 DiT(Diffusion Transformer)。
当然,随着视频生成这波 AI 趋势的继续演进,类似架构的模型会越来越多。就在昨天,开发出 SnapChat 图片分享软件的 Snap 公司、特伦托大学等机构联合发布了类似 Sora 的文本生成视频模型 Snap Video,这次他们使用到了可扩展的时空 Transformer。
相关的论文《Snap Video: Scaled Spatiotemporal Transformers for Text-to-Video Synthesis》已经放出。论文地址:https://arxiv.org/pdf/2402.14797.pdf
项目地址:https://snap-research.github.io/s
原文链接:首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...