黄仁勋对话 Transformer 八子:大模型的起源、现在和未来

AIGC动态9个月前发布 AI前线
14 0 0

黄仁勋对话 Transformer 八子:大模型的起源、现在和未来

AIGC动态欢迎阅读

原标题:黄仁勋对话 Transformer 八子:大模型的起源、现在和未来
关键字:解读,模型,创始人,数据,公告
文章来源:AI前线
内容字数:25477字

内容摘要:


作者 | 郑玥
编辑 | 郑玄
随着新一波 AI 浪潮席卷而来,英伟达突破 2 万亿美元市值成为最炙手可热的科技公司,今年 GTC 大会俨然成为年度最受关注的科技行业盛会。
四天的数百场主题分享中,英伟达创始人黄仁勋和 Transformer 八子的对谈,无疑是最受关注的场次之一。因为某种意义上,双方正是这波 AI 浪潮的奠基人。
谷歌大脑团队 2017 年发表了一篇名为《注意力就是你所需要的一切(Attention is all you need)》的论文,主要目的是解决自然语言处理领域,使用传统的 RNN(循环神经网络)模型不能解决并行计算,从而导致算法效率低下的问题。
这篇文章提出的新的处理架构就是 Transformer 模型,也是今天大模型的基石,而当时这篇文章的八位联名作者今天也被称为 Transformer 八子。几年后八子陆续离开谷歌,今天已经成为 Essential AI、Character.AI 等硅谷重要 AI 公司的创始人或技术核心。
Transformer 八子
·Ashish Vaswani,EssentialAI 联合创始人兼 CEO
·Noam Shaz


原文链接:黄仁勋对话 Transformer 八子:大模型的起源、现在和未来

联系作者

文章来源:AI前线
作者微信:ai-front
作者简介:面向AI爱好者、开发者和科学家,提供大模型最新资讯、AI技术分享干货、一线业界实践案例,助你全面拥抱AIGC。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...