AIGC动态欢迎阅读
原标题:Transformer能否推理引争议,DeepMind连夜更新论文开源数据集:Transformer真的很强
关键字:模型,算法,规则,国际象棋,人类
文章来源:AI科技评论
内容字数:0字
内容摘要:
小模型干大事,DeepMind重新审视Transformer推理能力。作者丨刘洁
编辑丨岑峰
DeepMind闷声干大事,悄悄训练了一个大小只有270M的Transformer模型,居然不需要搜索,就能实现大师级的下棋水平。
这几天的推特因为这篇2月份发布的论文吵得不可开交,DeepMind团队也赶紧放出了更新后的论文版本,开源了有关数据集和代码,对网上的争议做了回应。
最开始,有位网友分享了DeepMind的这项研究,并提出“Transformer也能用于逻辑任务”的观点,没想到却激起了一场关于Transformer能不能推理的争论。
先是顾全全果断转发表示赞同,“这表明Transformer具有推理和规划的能力。”
然而,这一观点很快遭到了激烈反驳,争论的火药味十足。
田渊栋直言,短时策略并不等于推理能力。他认为,“Transformer模型的评估基于闪电战模式(每局限时5-10分钟),这更依赖直觉和战术反应,而非传统的深度搜索和规划。”
田渊栋还指出,闪电战下机器人虽然Elo达2713,但未能展示出超越训练数据的能力。“此外,机器人在短时间内的闪电战Elo分数比人类选手要低,这可
原文链接:Transformer能否推理引争议,DeepMind连夜更新论文开源数据集:Transformer真的很强
联系作者
文章来源:AI科技评论
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...