AIGC动态欢迎阅读
原标题:何恺明新作:简单框架达成无条件图像生成新SOTA!与MIT合作完成
文章来源:量子位
内容字数:3534字
内容摘要:丰色 发自 凹非寺量子位 | 公众号 QbitAI大佬何恺明还未正式入职MIT,但和MIT的第一篇合作研究已经出来了:他和MIT师生一起开发了一个自条件图像生成框架,名叫RCG(代码已开源)。这个框架结构非常简单但效果拔群,直接在ImageNet-1K数据集上实现了无条件图像生成的新SOTA。它生成的图像不需要任何人类注释(也就是提示词、类标签什么的),就能做到既保真又具有多样性。这样的它不仅显著提高了无条件图像生成的水平,还能跟当前最好的条件生成方法一较高下。用何恺明团队自己的话来说:有条件和无条件生成任务之间长期存在的性能差距,终于在这一刻被弥补了。那么,它究竟是如何做到的呢?类似自监督学习的自条件生成首先,所谓无条件生成,就是模型在没有输入信号帮助的情况下直接捕获数据分布生成内容。这种方式比较难以训练,所以一直和条件生成有很大性能差距——就像无监督学习比不过监督学习一样。但就像自监督…
原文链接:点此阅读原文:何恺明新作:简单框架达成无条件图像生成新SOTA!与MIT合作完成
联系作者
文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...