首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

AIGC动态欢迎阅读

原标题:首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2
关键字:视频,图像,研究者,时间,模型
文章来源:机器之心
内容字数:9833字

内容摘要:


机器之心报道
编辑:杜伟、蛋酱文生视频这个战场,入局的玩家越来越多了。这次是阅后即焚 SnapChat 背后的公司。
最近,OpenAI 视频生成模型 Sora 的爆火,给基于 Transformer 的扩散模型重新带来了一波热度,比如 Sora 研发负责人之一 William Peebles 与纽约大学助理教授谢赛宁去年提出的 DiT(Diffusion Transformer)。
当然,随着视频生成这波 AI 趋势的继续演进,类似架构的模型会越来越多。就在昨天,开发出 SnapChat 图片分享软件的 Snap 公司、特伦托大学等机构联合发布了类似 Sora 的文本生成视频模型 Snap Video,这次他们使用到了可扩展的时空 Transformer。
相关的论文《Snap Video: Scaled Spatiotemporal Transformers for Text-to-Video Synthesis》已经放出。论文地址:https://arxiv.org/pdf/2402.14797.pdf
项目地址:https://snap-research.github.io/s


原文链接:首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...