原标题:黄仁勋:英伟达远超摩尔定律,芯片性能10年提升1000倍,比上代产品提升30倍!
文章来源:AI范儿
内容字数:2521字
Nvidia CEO 黄仁勋:AI 芯片性能超越摩尔定律
Nvidia CEO 黄仁勋近日在 CES 大会上发表演讲,并接受采访,大胆宣称公司 AI 芯片的性能进步速度已经超越了摩尔定律。这一说法引发广泛关注,因为摩尔定律曾是几十年来计算技术发展的主要驱动力。
1. 超越摩尔定律的AI芯片发展速度
黄仁勋指出,Nvidia 的 AI 芯片发展速度远超摩尔定律预测的晶体管数量每年翻倍的速度。他以公司最新数据中心超级芯片为例,其 AI 推理性能比上一代提升了 30 多倍。这一突破并非单一技术进步的结果,而是通过在架构、芯片、系统、程序库和算法等多个层面同时创新实现的。
2. 多层面创新突破摩尔定律限制
黄仁勋解释说,Nvidia 的成功在于多方面的协同创新。 这打破了摩尔定律逐渐放缓的限制,为AI发展带来了新的可能性。他认为,目前 AI 发展遵循三个定律:预训练、后训练和测试时计算。
3. 降低AI推理成本,推动AI应用普及
黄仁勋强调,提升 AI 推理性能的关键在于降低其使用成本。他认为,与摩尔定律降低计算成本推动计算技术发展一样,提升 AI 推理性能也能降低 AI 应用成本,从而促进 AI 技术的普及。 他以最新的数据中心超级芯片 GB200 NVL72 为例,其性能比 H100 提升了 30-40 倍,这将显著降低像 OpenAI o3 这样需要大量推理计算的模型的使用成本。目前,OpenAI 的 o3 模型每个任务的运行成本高达近 20 美元,而 ChatGPT Plus 订阅费为每月 20 美元。 Nvidia 的技术进步有望解决这一问题。
4. 持续的性能提升和未来展望
黄仁勋表示,Nvidia 的 AI 芯片性能在过去十年提升了 1000 倍,远超摩尔定律的速度,而且这一趋势仍在持续。他认为,更强的性能意味着更低的价格,这将是长期目标。 尽管目前一些大型语言模型的推理成本依然很高,但他预计随着技术的进步,AI 模型的价格将持续下降。
5. 应对质疑和挑战
文章也提到了业界对 Nvidia 昂贵芯片能否持续保持优势的质疑,以及使用测试时计算的 AI 模型运行成本高的问题。然而,黄仁勋认为,提升计算能力是解决这些问题的直接方案,并且长期来看,更强大的 AI 推理模型还能为预训练和后训练阶段提供更好的数据。
总而言之,黄仁勋的观点是,Nvidia 通过多方面创新,实现了 AI 芯片性能的指数级增长,超越了摩尔定律,并有望通过持续的性能提升降低 AI 应用成本,从而推动 AI 技术的进一步发展和普及。
联系作者
文章来源:AI范儿
作者微信:
作者简介:专注于探索 AIGC,发掘人工智能的乐趣。