AI算力提高,高能耗和难散热问题如何突破?

AIGC动态8个月前发布 量子位
6 0 0

AI算力提高,高能耗和难散热问题如何突破?

AIGC动态欢迎阅读

原标题:AI算力提高,高能耗和难散热问题如何突破?
关键字:电源,数据中心,功率,芯片,方案
文章来源:量子位
内容字数:5842字

内容摘要:


允中 发自 凹非寺量子位 | 公众号 QbitAI随着AI技术的广泛应用,从智能手机到自动驾驶汽车,从智能家居到工业自动化,AI供电芯片的需求量正呈爆炸式增长。它不仅为AI系统提供稳定的电力供应,确保系统的正常运行,而且还肩负着节能减排、降低能耗的重任。
然而随着算力需求的提升,AI设备的能耗、散热等问题凸显,这无疑给AI供电芯片带来了新的挑战,如何实现高效率、低功耗、持续稳定的供电成为了业界关注的焦点。
能耗“突飞猛进”:算力比拼加速,能耗日益攀升
算力核心设备由传统的CPU向GPU的转移,不仅提升了计算效率,更使得复杂的数据处理和深度学习模型得以实现。然而,高性能往往伴随着高能耗。在追求更快计算速度的同时,GPU的能耗也在不断上升,给数据中心和服务器带来了巨大的能源压力。荷兰数据科学家Alex de Vries在专注能源研究的学术期刊《Joule》上发表的一项研究显示,按照当前趋势,到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力(1太瓦时=10亿千瓦时)。
散热“力不从心”:高性能AI芯片的烫手难题
高性能的AI芯片在运行过程中会产生大量热量,如果不能及时有效地散


原文链接:AI算力提高,高能耗和难散热问题如何突破?

联系作者

文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...