标签:加法

张俊林:大语言模型无法对数字进行准确运算的主要原因

直播预告 | 7月23日14点,「智猩猩在线研讨会 NVIDIA AI for Science 专场」将开讲,两位专家将分别以《AI 驱动下的新能源材料研究与发现》、《NVIDIA Modulu...
阅读原文

学术前沿 | Transformer究竟如何推理?基于样例还是基于规则

来源:北京大学人工智能研究院 导读本文是对发表于ICML 2024的论文Case-based or rule-based: How Do Transformers Do the Math?的解读。文章第一作者为来自...
阅读原文

ICML 2024|Transformer究竟如何推理?基于样例还是基于规则

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

单GPU训练一天,Transformer在100位数字加法上就达能到99%准确率

机器之心报道 机器之心编辑部乘法和排序也有效。 自 2017 年被提出以来,Transformer 已成为 AI 大模型的主流架构,一直稳站 C 位。 但所有研究者都不得不承...
阅读原文

谷歌证实大模型能顿悟,特殊方法能让模型快速泛化,或将打破大模型黑箱

新智元报道编辑:润 好困【新智元导读】谷歌团队认为,模型泛化能力无处不在,只要摸清条件,模型就不是随机鹦鹉。在特定情况下,人工智能模型会超越训练数据...
阅读原文