视频、图像、文本,只需基于下一个Token预测:智源Emu3发布,验证多模态模型新范式

视频、图像、文本,只需基于下一个Token预测:智源Emu3发布,验证多模态模型新范式

AIGC动态欢迎阅读

原标题:视频图像、文本,只需基于下一个Token预测:智源Emu3发布,验证多模态模型新范式
关键字:模型,视觉,数据,图像,视频
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心发布
机器之心编辑部OpenAI 前首席科学家、联合创始人 Ilya Sutskever 曾在多个场合表达观点:只要能够非常好的预测下一个 token,就能帮助人类达到通用人工智能(AGI)。
虽然,下一 token 预测已在大语言模型领域实现了 ChatGPT 等突破,但是在多模态模型中的适用性仍不明确,多模态任务仍然由扩散模型(如 Stable Diffusion)和组合方法(如结合 CLIP 视觉编码器和 LLM)所主导。
2024 年 10 月 21 日,智源研究院正式发布原生多模态世界模型 Emu3。该模型只基于下一个 token 预测,无需扩散模型或组合方法,即可完成文本、图像、视频三种模态数据的理解和生成。Emu3 在图像生成、视频生成、视觉语言理解等任务中超过了 SDXL 、LLaVA、OpenSora 等知名开源模型,但是无需扩散模型、CLIP 视觉编码器、预训练的 LLM 等技术,只需要预测下一个 token。在图像生成任务中,基于人类偏好评测,Emu3 优于 SD-1.5 与 SDXL 模型。在视觉语言理解任务中,对于 12 项基准测试的平均得分,Emu3


原文链接:视频、图像、文本,只需基于下一个Token预测:智源Emu3发布,验证多模态模型新范式

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...