AIGC动态欢迎阅读
原标题:多 Transformer 集合可挑战 GPT-4,推理能力是单一Transformer 的 18 倍
关键字:模型,序列,图灵机,问题,能力
文章来源:AI科技评论
内容字数:8102字
内容摘要:
ICLR 匿名研究:单一 Transformer 不具备图灵完备性,但多 Transformer 可以。作者丨郭思、赖文昕
编辑丨陈彩娴
Transformer 自 2017 年出世以来就在 AI 领域高举高打,ChatGPT 引发全球大型语言模型热潮后更是在 NLP 领域被赋予了神话般的地位。
但近日,一篇正在审核中的 ICLR 2023 投稿论文(如下)经研究后提出一个观点:单一 Transformer 并不具备图灵完备性,其计算能力存在理论上的局限性,在圈内引起关注。
由于该论文正在审核中,作者信息没有被公开。
论文链接:https://openreview.net/pdf?id=MGWsPGogLH
与此同时,该论文新提出了一种名为“Find+Replace Transformer”的多 Transformer 架构,并证明了通过集成多个Transformer,能够解决单一 Transformer 无法胜任的任务。
这项研究直接对标并超越了当前最先进的GPT-4模型,在一系列极具挑战性的基准测试中展现了显著的优势和潜力。1被神化的 Transformer
局限在哪里?图灵完备性
原文链接:多 Transformer 集合可挑战 GPT-4,推理能力是单一Transformer 的 18 倍
联系作者
文章来源:AI科技评论
作者微信:aitechtalk
作者简介:雷峰网旗下AI新媒体。聚焦AI前沿研究,关注AI工程落地。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...