GPT, known as the "Electricity Eater," consumes up to 500,000 kWh per day. Is Tesla's "electricity shortage" prophecy coming true?

华尔街见闻
2024.03.11 03:42
portai
I'm PortAI, I can summarize articles.

ChatGPT 日均消耗的电力,相当于美国家庭每天用电量的 1.7 万多倍。黄仁勋:“AI 的尽头是光伏和储能!”

最近一段时间,公众开始注意到,当前蓬勃发展的生成式 AI 技术需要耗费大量的电力。

据《纽约客》当地时间 9 日报道,荷兰国家银行数据专家 Alex de Vries 估计,OpenAI 旗下聊天机器人 ChatGPT 每天消耗超过 50 万千瓦时的电力,用于处理约 2 亿个用户请求,相当于美国家庭每天用电量的 1.7 万多倍。

谷歌的搜索引擎同样需要大量的电力。

据 de Vries 估计,若谷歌在每次搜索中都使用 AIGC(生成式人工智能技术),其年耗电量将增至约 290 亿千瓦时,这一数字超过了许多国家的一年用电量,包括肯尼亚、危地马拉和克罗地亚。

而随着 AI 芯片的不断更新换代,其所需的电力也越来越多。

比如,据戴尔公司首席运营官 Jeff Clarke 近日透露,英伟达将于 2025 年推出载有 “Blackwell” 架构的B200 产品,功耗或将达到 1000W,较 H100 增加 40% 以上。

媒体的曝光在一定程度上呼应了一些 AI 大佬近的担忧。

AI大佬集体发声:太缺电了!

前不久马斯克在接受媒体采访时预言,AI 行业经历将在明年迎来电力短缺,届时将 “没有足够的电力来运行所有的芯片”。

很容易预测,接下来短缺的会是降压变压器。

你得给这些芯片供电。如果你的电力供应输出是 100 到 300 千伏,而它必须一路降压到 0.6 伏,这是一个很大的降压过程。

OpenAI 创始人 Sam Altman 在世界经济论坛上也表示:

我们需要的能源确实比我们之前想象的要多得多。

随着生成式 AI 技术的快速蔓延,芯片对电力的需求大幅飙升。相关数据显示,十年前全球数据中心市场的耗电量为 100 亿瓦,而如今 1000 亿瓦的水平已十分常见。

另外,根据美国 Uptime Institute 的预测,到 2025 年,人工智能业务在全球数据中心用电量中的占比将从 2% 猛增到 10%。

按照当前的趋势,de Vries 预计,2027年整个AI行业每年将消耗85-134太瓦时(1太瓦时=10亿千瓦时)的电力。

de Vries 表示,他对于人们在面对大量机器学习的同时,人类学习的缺失感到失望。

在我看来,从政策角度讲,短期到中期内,唯一现实的措施是要求企业披露(用电数据)。

加密货币领域耗费了相当长的时间才达到这一点,而人工智能没有能更早做到这一点,让我感到失望。

根据 de Vries 此前编制的比特币能耗指数,比特币挖矿如今每年消耗 1450 亿千瓦时的电力,这一数字比整个荷兰的年用电量还要多,发电导致的二氧化碳排放量达 8100 万吨,超过了如摩洛哥等国的年排放总量。

AI 电力需求飙升之际,能源赛道迎来新一轮机会?

有策略师分析表示,AI 技术发展利好能源资产:

越来越多的人开始意识到,大型人工智能服务器群将需要大量能源,这正在提高一些投资者的兴趣,开始将投资范围扩大至电力、油气在内的相关能源领域,核能也开始受到关注。

英伟达 CEO 黄仁勋在最近的一场公开演讲中明确表示:

AI 的尽头是光伏和储能!如果只考虑计算机,我们需要烧掉 14 个地球的能源。

Altman 也发表了类似观点:

未来 AI 的技术取决于能源,我们需要更多的光伏和储能。

我们需要的是核聚变,或者是大规模的、成本极低的太阳能加储能系统,规模之大前所未有。

挑战同样存在!

以美国为例,清洁能源、AI、数据中心、电动汽车、挖矿等多种产业的增长,让原本陷入停滞的美国电力需求再度 “起飞”。但即使被誉为世界上 “最大的机器”,美国电网也似乎无法应对这突如其来的变化。

有分析师指出,美国 70% 的电网接入和输配电设施已老化,某些地区电网传输线路不足。因此,美国电网需要大规模升级,如果不采取行动,到 2030 年美国将面临一道难以逾越的国内供应缺口。