字节跳动推出颠覆性文生视频模型,可自由控制动作!

AIGC动态9个月前发布 AI前线
29 0 0

字节跳动推出颠覆性文生视频模型,可自由控制动作!

AIGC动态欢迎阅读

原标题:字节跳动推出颠覆性文生视频模型,可自由控制动作!
关键字:字节跳动,视频,解读,侵权,模型
文章来源:AI前线
内容字数:3688字

内容摘要:


来源|AIGC开放社区
在 Sora 引爆文生视频赛道之前,国内的字节跳动也推出了一款颠覆性视频模型——Boximator。
与 Gen-2、Pink1.0 等模型不同的是,Boximator 可以通过文本精准控制生成视频中人物或物体的动作。
例如,下雨天,大风把一位女生的雨伞吹走了。目前,很少有视频模型能精准做到这一点。左侧为 Boximator 生成的视频
论文地址:
https://arxiv.org/abs/2402.01566
项目地址:
https://boximator.github.io/Boximator 案例赏析我们先看一下 Boximator 与 Gen-2、Pink1.0,在使用相同的文本提示词、图像生成的视频,所表现出来的不同动作。
为了方便观察,「AIGC 开放社区」将对比视频整合在一起,最左边的是 Boximator 生成的视频。
一个可爱的 3D 男孩站着,然后走路在这个案例中,Pika 1.0 生成的视频男孩只是站着没有走动,Gen-2 的视频走动了但不明显,只有 Boximator 产生了明显的走动动作。
一位英俊的男人用他的右手从口袋里拿出一朵玫瑰


原文链接:字节跳动推出颠覆性文生视频模型,可自由控制动作!

联系作者

文章来源:AI前线
作者微信:ai-front
作者简介:面向AI爱好者、开发者和科学家,提供AI领域技术资讯、一线业界实践案例、搜罗整理业界技术分享干货、AI论文解读。每周一节技术分享公开课,助力你全面拥抱人工智能技术。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...