大一统视频编辑框架:浙大&微软推出UniEdit,无须训练、支持多种编辑场景

AIGC动态7个月前发布 机器之心
10 0 0

大一统视频编辑框架:浙大&微软推出UniEdit,无须训练、支持多种编辑场景

AIGC动态欢迎阅读

原标题:大一统视频编辑框架:浙大&微软推出UniEdit,无须训练、支持多种编辑场景
关键字:研究者,编辑,视频,动作,分支
文章来源:机器之心
内容字数:8077字

内容摘要:


机器之心专栏
机器之心编辑部随着 Sora 的爆火,人们看到了 AI 视频生成的巨大潜力,对这一领域的关注度也越来越高。
除了视频生成,在现实生活中,如何对视频进行编辑同样是一个重要的问题,且应用场景更为广泛。以往的视频编辑方法往往局限于「外观」层面的编辑,例如对视频进行「风格迁移」或者替换视频中的物体,但关于更改视频中对象的「动作」的尝试还很少。UniEdit 视频编辑结果(动作编辑、风格迁移、背景替换、刚性 / 非刚性物体替换)
本文中,来自浙江大学、微软亚洲研究院、和北京大学的研究者提出了一个基于文本描述的视频编辑统一框架 UniEdit,不仅涵盖了风格迁移、背景替换、刚性 / 非刚性物体替换等传统外观编辑场景,更可以有效地编辑视频中对象的动作,例如将以上视频中浣熊弹吉他的动作变成「吃苹果」或是「招手」。
此外,除了灵活的自然语言接口和统一的编辑框架,这一模型的另一大优势是无需训练,大大提升了部署的便捷性和用户使用的方便度。论文标题:UniEdit: A Unified Tuning-Free Framework for Video Motion and Appearance E


原文链接:大一统视频编辑框架:浙大&微软推出UniEdit,无须训练、支持多种编辑场景

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...