大模型千卡训练总结

大模型千卡训练总结

AIGC动态欢迎阅读

原标题:大模型千卡训练总结
关键字:知乎,梯度,节点,侵权,通信
文章来源:智猩猩GenAI
内容字数:0字

内容摘要:


开讲预约导读文章转载自知乎,作者为你的真实姓名,本文只作者对知乎问题“如何判断候选人有没有千卡GPU集群的训练经验?”的回答和总结。
原文地址:https://www.zhihu.com/question/650979052/answer/3501160453
本文只做学术/技术分享,如有侵权,联系删文。最近看到知乎一个回答,把千卡训练的难度吹上天了。但其实真正用过千卡就会发现也就那么几个点。于是想写一篇文章简单讲讲。
本文将包括3个部分:首先我们将讨论千卡训练的难题,以及应该在什么时候使用千卡训练;接着,我们将讨论如何在一千张卡上开始训练,如何让他达到近乎线性的性能提升;最后我们将展开讨论一些千卡训练当中仍然悬而未决(至少对于开源社区来说)的问题。
01为什么千卡训练是困难的?千卡训练和八卡训练的区别是—显卡多了一百多倍。
这意味着什么呢?
通信时间增加
故障概率增加
这俩问题都很好理解。
时间上,PyTorch内部支持NCCL/Gloo/MPI三个通信后端(请务必使用NCCL。其中AllReduce操作会会根据具体硬件配置走Ring AllReduce和Tree AllReduce


原文链接:大模型千卡训练总结

联系作者

文章来源:智猩猩GenAI
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...