为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑

为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑

AIGC动态欢迎阅读

原标题:为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑
关键字:神经网络,代码,项目,语言,可能会
文章来源:机器之心
内容字数:4302字

内容摘要:


机器之心报道
编辑:小舟Karpathy:for fun.几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」。llm.c 旨在让大模型(LM)训练变得简单 —— 使用纯 C 语言 / CUDA,不需要 245MB 的 PyTorch 或 107MB 的 cPython。例如,训练 GPT-2(CPU、fp32)仅需要单个文件中的大约 1000 行干净代码(clean code),可以立即编译运行,并且完全可以媲美 PyTorch 参考实现。项目链接:https://github.com/karpathy/llm.c
项目的 Star 量不到七个小时就冲上了 2000,目前已经接近一万 Star。很多网友惊呼太强了:「即使顶着指针 ptsd,我也能感受到这些代码的美。」然而,llm.c 项目收到的不只是称赞,还有很多质疑的声音。例如,有网友直接提问:「能具体描述下这个项目做了什么吗,解决了什么问题?」对此,Karpathy 今天正面回应了


原文链接:为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...