拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造

拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造

AIGC动态欢迎阅读

原标题:拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造
关键字:腾讯,字节跳动,模型,本文,动作
文章来源:机器之心
内容字数:4674字

内容摘要:


机器之心报道
编辑:杜伟、陈萍去年 5 月,动动鼠标就能让图片变「活」得研究 DragGAN 吸引了 AI 圈的关注。通过拖拽,我们可以改变并合成自己想要的图像,比如下图中让一头狮子转头并张嘴。
实现这一效果的研究出自华人一作领衔的「Drag Your GAN」论文,于上个月放出并已被 SIGGRAPH 2023 会议接收。相关的项目在 GitHub 上已经积累了 34.5k 的 Star 量。项目地址:https://github.com/XingangPan/DragGAN
之后,新加坡国立大学和字节跳动推出了类似的研究 ——DragDiffusion。他们利用大规模预训练扩散模型,极大提升了基于点的交互式编辑在现实世界场景中的适用性。效果如下动图所示:尽管取得了很大的成功,但类似的拖拽方案存在两个主要缺陷,即点跟踪不准确和动作监督不完整,从而可能导致无法达到满意的拖拽效果。
为了克服这些缺陷,南京大学、腾讯的几位研究者提出了一种判别式点跟踪方法并针对动作监督采用了基于置信的潜在增强策略,构建了一个更加稳定和精确的拖拽编辑框架 ——StableDrag。
其中判别式点跟踪方法能够精


原文链接:拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...