纵览机器学习前生今世,万字整理谷歌首席科学家 Jeff Dean 一小时演讲

纵览机器学习前生今世,万字整理谷歌首席科学家 Jeff Dean 一小时演讲

AIGC动态欢迎阅读

原标题:纵览机器学习前生今世,万字整理谷歌首席科学家 Jeff Dean 一小时演讲
关键字:模型,机器,图像,领域,解读
文章来源:人工智能学家
内容字数:25269字

内容摘要:


经过算法的改进和机器学习专用硬件的显著提升,我们现在能够构建比以往任何时候都更为强大的通用机器学习系统。演讲者| Jeff Dean
整理 |王启隆
自从 2017 年谷歌发表了题为 “Attention is All You Need” 的重磅论文,其中提出的“自注意力”这一性的概念成为 Transformer 模型的核心部分,引领了我们目前正在经历的 AIGC 。
然而,当前的大模型领域似乎并不是姓“谷”的,反倒是有种微软一手遮天,谷歌和其他公司在后追赶的感觉。
为什么现在会出现这种“逆转”的情况呢?谷歌现在都做了些什么工作?为了解答这个问题,谷歌首席科学家 Jeff Dean 于2 月13 日在美国莱斯大学进行了一场 1 小时 12 分钟的公开演讲,突出展示人工智能和机器学习领域中几个令人振奋的趋势,并介绍了谷歌在人工智能时代的过去、现在与未来所做的工作,还概述了大家都很感兴趣的 Gemini 系列多模态模型。
这场演讲的时间很有意思,因为谷歌随后在 2 月 15 日发布了 Gemini 1.5,然后在同一天被 OpenAI 的 Sora “背刺”了一手,抢尽风头。
要弄


原文链接:纵览机器学习前生今世,万字整理谷歌首席科学家 Jeff Dean 一小时演讲

联系作者

文章来源:人工智能学家
作者微信:AItists
作者简介:致力成为权威的人工智能科技媒体和前沿科技研究机构

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...