PyTorch造大模型“加速包”,不到1000行代码提速10倍!英伟达科学家:minGPT以来最好的教程式repo之一

AIGC动态11个月前发布 量子位
18 0 0

PyTorch造大模型“加速包”,不到1000行代码提速10倍!英伟达科学家:minGPT以来最好的教程式repo之一

AIGC动态欢迎阅读

原标题:PyTorch造大模型“加速包”,不到1000行代码提速10倍!英伟达科学家:minGPT以来最好的教程式repo之一

关键字:模型,张量,团队,速度,代码

文章来源:量子位

内容字数:5991字

内容摘要:西风 发自 凹非寺量子位 | 公众号 QbitAIPyTorch团队让大模型推理速度加快了10倍。且只用了不到1000行的纯原生PyTorch代码!项目名为GPT-fast,加速效果观感是这样婶儿的:通畅,属实通畅!重点是,团队直接放出了代码以及详细“教程”。还是简笔画版的那种,特别好理解。开发团队成员@Horace He表示:我们不把它看作是库或者框架,更希望大家能把它当成个例子,根据自己的需求“复制粘贴”。网友直接炸开锅,英伟达AI科学家Jim Fan评价道:这是自Andrej Karpathy发布的minGPT以来最棒的教程式repo之一!开源世界需要更多minGPT、GPT-Fast这样的项目!那么GPT-fast究竟是如何给大模型提速的?开盒大模型“加速包”总的来说,用到这几种方法:Torch.compile:一个专门为PyTorch模型设计的编译器,可以提升模型运行效率。GPU…

原文链接:点此阅读原文:PyTorch造大模型“加速包”,不到1000行代码提速10倍!英伟达科学家:minGPT以来最好的教程式repo之一

联系作者

文章来源:量子位

作者微信:QbitAI

作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...