怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键​

AIGC动态10个月前发布 机器之心
14 0 0

怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键​

AIGC动态欢迎阅读

原标题:怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键​
关键字:模型,表征,世界,任务,研究者
文章来源:机器之心
内容字数:8874字

内容摘要:


机器之心报道
机器之心编辑部Sora 的发布让整个 AI 领域为之狂欢,但 LeCun 是个例外。
面对 OpenAI 源源不断放出的 Sora 生成视频,LeCun 热衷于寻找其中的失误:归根结底,LeCun 针对的不是 Sora,而是 OpenAI 从 ChatGPT 到 Sora 一致采用的自回归生成式路线。
LeCun 一直认为, GPT 系列 LLM 模型所依赖的自回归学习范式对世界的理解非常肤浅,远远比不上真正的「世界模型」。
所以,一遇到「Sora 是世界模型」的说法,LeCun 就有些坐不住:「仅仅根据 prompt 生成逼真视频并不能代表一个模型理解了物理世界,生成视频的过程与基于世界模型的因果预测完全不同。」那么,面对视觉任务,世界模型如何获得自回归模型一般的性能?
最近,Lecun 发布了自己关于「世界模型」的新论文《在视觉表征学习中学习和利用世界模型》,刚好解释了这个问题。论文标题:Learning and Leveraging World Models in Visual Representation Learning
论文链接:https://arxiv.o


原文链接:怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键​

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...