AIGC动态欢迎阅读
原标题:AI推理时代:算力能耗瓶颈下的“密钥”何在?
关键字:数据中心,联想集团,技术,服务器,视频
文章来源:智东西
内容字数:0字
内容摘要:
液冷技术正逐渐成为数据中心解决能耗问题的关键。
作者|程茜
编辑|漠影
2024年,千行百业对AI推理的需求将呈现出爆发式增长,行业对算力的需求远远超越以往。在这样的形势下,如何突破能耗瓶颈,进而获取更充足的算力,已经成为每个企业迫在眉睫且亟待解决的关键问题。
然而,当前的现实情况是有效算力供给已无法满足算力需求:一方面,从储备到应用的算力需求都愈发旺盛,OpenAI CEO召集全球投资者组建联盟为大模型构建基础设施,马斯克的无人驾驶出租车Cybercab为科技行业描绘了未来感十足的面面,还有性能愈发强大的GPT-o1等模型层出不穷。
另一方面,数据中心的算力潜能尚未被完全挖掘出来。数据中心常被认为是“耗电怪兽”,因为服务器运行伴随着热量释放,温度一旦超过极限值,服务器性能就会显著降低,限制数据中心算力发挥。于是各类创新技术涌现,试图让数据中心再次突破能效瓶颈,释放出被束缚的算力潜能。
这背后的关键变量就是冷却技术,液冷技术作为推手帮助数据中心一次次突破制约。就在2024年联想集团Tech World上,联想集团董事长兼CEO杨元庆与NVIDIA创始人兼CEO黄仁勋,这两大全球科技行业
联系作者
文章来源:智东西
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...