扩散模型失宠?端侧非自回归图像生成基础模型Meissonic登场,超越SDXL!

AIGC动态1个月前发布 新智元
3 0 0

扩散模型失宠?端侧非自回归图像生成基础模型Meissonic登场,超越SDXL!

AIGC动态欢迎阅读

原标题:扩散模型失宠?端侧非自回归图像生成基础模型Meissonic登场,超越SDXL!
关键字:图像,模型,高效,分辨率,文本
文章来源:新智元
内容字数:0字

内容摘要:


新智元报道编辑:LRST
【新智元导读】刚刚,一款专为消费级显卡设计的全新非自回归掩码图像建模的文本到图像生成模型——Meissonic发布,标志着图像生成即将进入「端侧时代」。最近,YouTube和Reddit上出现了一个引起广泛讨论的图像生成模型,来自日本、韩国、美国、、中东和英国的网友们纷纷参与讨论。Youtube热烈讨论
那么,这到底是怎么回事呢?让我们一起来看看吧。
近年来,大语言模型在自然语言处理领域取得了巨大的突破,以LLaMA和Qwen等为代表的模型展现了强大的语言理解和生成能力。
但是,图像生成技术的突破主要得益于扩散模型,如Stable Diffusion XL在图像质量、细节和概念一致性方面设立了事实标准。
然而,这些扩散模型与自回归语言模型的工作原理和架构显著不同,导致在视觉和语言任务上实现统一生成方法面临挑战。这种差异不仅使这些模态的整合变得复杂,还凸显了需要创新的方法来弥合它们之间的差距。
自回归文本到图像模型(如LlamaGen)通过预测下一个token生成图像,但由于生成的图像token数量庞大,自回归模型在效率和分辨率上也面临瓶颈,难以应用到实


原文链接:扩散模型失宠?端侧非自回归图像生成基础模型Meissonic登场,超越SDXL!

联系作者

文章来源:新智元
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...