史诗级对话!黄仁勋对谈Transformer八位作者:大模型从何而来,下一步会如何发展?

AIGC动态9个月前发布 Founder Park
21 0 0

史诗级对话!黄仁勋对谈Transformer八位作者:大模型从何而来,下一步会如何发展?

AIGC动态欢迎阅读

原标题:史诗级对话!黄仁勋对谈Transformer八位作者:大模型从何而来,下一步会如何发展?
关键字:模型,数据,创始人,公告,可编程
文章来源:Founder Park
内容字数:23086字

内容摘要:


今年的 GTC,英伟达创始人黄仁勋和 Transformer 八子的对谈,无疑是最受关注的场次之一。因为某种意义上,双方正是这波 AI 浪潮的奠基人。
谷歌大脑团队 2017 年发表了一篇名为《注意力就是你所需要的一切(Attention is all you need)》的论文,主要目的是解决自然语言处理领域,使用传统的 RNN(循环神经网络)模型不能解决并行计算,从而导致算法效率低下的问题。
这篇文章提出的新的处理架构就是 Transformer 模型,也是今天大模型的基石,而当时这篇文章的八位联名作者今天也被称为 Transformer 八子。几年后八子陆续离开谷歌,今天已经成为 Essential AI、Character.AI 等硅谷重要 AI 公司的创始人或技术核心。
Transformer 八子
Ashish Vaswani,EssentialAI 联合创始人兼 CEO
Noam Shazeer,Character.AI 首席执行官兼联合创始人
Jakob Uszkoreit,Inceptive 联合创始人兼首席执行官
Llion Jones,SakanaAI 联合创始人


原文链接:史诗级对话!黄仁勋对谈Transformer八位作者:大模型从何而来,下一步会如何发展?

联系作者

文章来源:Founder Park
作者微信:Founder-Park
作者简介:来自极客公园,专注与科技创业者聊「真问题」。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...