AIGC动态欢迎阅读
内容摘要:
大数据文摘受权转载自头部科技
文丨俊俊
没想到,AI的尽头,居然是储能。
因为大模型训练,不仅费钱,更费电!
随着AI爆火,大型AI模型需要大量算力资源,大量新建的数据中心需要巨量的电力供应,科技巨头对电力需求激增,电力需求不断高涨。
像亚马逊AWS等公司正与核电厂运营商商谈供电协议,以满足数据中心的电力需求。
这一趋势引发争议,大家都在担心科技公司通过转移现有电力资源而非增加绿色能源来满足需求,可能加剧电力可靠性问题和电价上涨。
果然费电
AI需要电,就像人类需要水一样。虽然知道AI训练耗电大,但没想到这么大。
“一些简单的计算”表明 AI 所需电力将在全球电力消耗中占据相当大的份额。
研究显示,训练谷歌于2022年发布的大语言模型PaLM需要消耗3436兆瓦时的电量,约等于11.8万美国普通家庭日耗电量(美国普通家庭日均耗电量约为29千瓦时);就算训练参数量为3.4亿的BERT模型,也需要消耗1.5兆瓦时的电量,相当于观看1875小时的流媒体。
据《纽约客》杂志引援国外研究机构报告,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力。
也就是说,ChatGPT每
原文链接:AI要发展,这个难题必须解决
联系作者
文章来源:大数据文摘
作者微信:BigDataDigest
作者简介:普及数据思维,传播数据文化
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...