“AI的电力挑战:解决缺电问题,中国方案引关注”

下一个短缺的将是电力。”不久前,特斯拉首席执行官马斯克对人工智能(AI)的发展发出了这样的预警。他表示,人工智能计算的约束条件是可预测的,“我在一年多前就预测过芯片短缺,下一个短缺的将是电力。我认为明年将没有足够的电力来运行所有的芯片。”此外,OpenAI首席执行官山姆·奥特曼也表示,人工智能将消耗比人们预期更多的电力,未来的发展需要能源突破。在人工智能飞速发展的背后,能源消耗问题也日益凸显,成为业内关注的焦点。甚至有人提出,“AI的尽头是算力,而算力的尽头是电力”。

那么,人工智能到底有多耗电?人工智能发展“缺电”了吗?面对能耗问题,我国又拿出了怎样的应对方案?

1. AI有多耗电?

当下人工智能大模型的竞争,颇像一场“算力军备竞赛”。在规模效应的驱动下,各公司通过不断增加模型参数和数据量,期待实现“大力出奇迹”,相应地,算力需求也成倍增加。

所谓算力,简单来理解,就是对数据或信息的处理能力。算力是抽象的,它的载体却实在可见,就是以数据中心、智算中心为代表的算力基础设施。算力的背后,是电力在支撑。

当下训练AI大模型使用的主流算力芯片英伟达H100芯片,一张最大功耗为700瓦,这意味着运行一小时就要耗电0.7度。而此前有消息称,OpenAI训练GPT-5,需要数万张H100芯片。

通过昼夜不息的数据中心,大家会对AI耗电有一个感性认识,而数据则更加直观。

GPT-3的训练为例,GPT-3有1750亿个参数,据估计,训练过程使用了大约1287兆瓦时的电力。该如何理解这个耗电量?这相当于美国约121个家庭一整年的用电量。也曾有专家打了这么一个比方,大概相当于3000辆特斯拉电动汽车共同开跑,每辆车跑20万英里。

GPT-3是在2020年发布的,很多人也许会问,更新的模型能耗如何呢?因为近年来不少AI科技公司不再公布训练细节,比如用了什么硬件、耗时多久,这使得能耗计算变得困难。但GPT-3的能耗可以作为一个参考,GPT-3模型参数为1750亿,而GPT-4曾被曝包含1.8万亿参数,随着参数的翻倍,能耗也会大幅增加。

而以上的能耗还只限于训练阶段,完成训练后,AI将迎来新的耗电阶段——推理,也即人们使用AI输出结果的过程。

AI的训练是一次性事件,而使用却是长期过程,随着应用的普及、使用人数的增加,耗电量将不断叠加。

国际能源署(IEA)在今年1月的一份报告中曾表示,ChatGPT响应一个请求平均耗电2.9瓦时——相当于将一个60瓦的灯泡点亮略少于三分钟。另外,据美媒报道,ChatGPT每天响应约2亿个需求,消耗超过50万度电力,相当于1.7万个美国家庭平均一天的用电量。

让我们做一道简单的数学题,GPT-3训练耗电约128万度,ChatGPT每天为响应需求耗电50万度,GPT-3在训练阶段消耗的电量,甚至无法支撑ChatGPT运行3天。天长日久,耗电量可谓相当可观。

2. AI“缺电”了吗?

各种数据似乎都在说明,AI是一只“耗电巨兽”,那么下一个问题就是,它的胃口还能被满足吗?AI发展“缺电”了吗?来让数据说话。

根据公开资料,2023年,美国全口径净发电量为41781.71亿千瓦时,以ChatGPT每天耗电50万度计算,按一年365天,耗电量约为18250万度,这也只占全美发电量的约0.0044%。

AI当然不只ChatGPT,但它的耗能数据可以作为一个切口。可以看出,尽管随着AI算力的迅猛增长,电力需求也持续增长,但目前其在整体电力消耗中所占比例较小。

既然如此,科技大佬们频频呼吁关注AI能耗问题,是在“贩

卖焦虑”吗?其实不然。

波士顿咨询集团曾发布报告称,到2030年底,仅美国数据中心的用电量预计将是2022年的三倍,而这一增幅主要来自AI模型训练和更高频的AI查询。“AI发展‘缺电’并不是现在已经出现的问题,而是未来可能面临的问题。”中国现代国际关系研究院国际安全所所长刘冲作出这样的判断。他表示,目前AI发展的路线是不断增加模型参数、叠加芯片,如果继续按照这个路线发展,将来消耗的电力将更多,从这个角度来讲,未来AI的能耗问题可能会越来越突出,尤其是对于电力供应本身比较紧张的国家。但就目前而言,能源还没有成为限制AI发展的因素。工信部信息通信经济专家委员会委员刘兴亮也表示,科技大佬预言AI“缺电”,可能是想让大家重视起这个问题,这只说明,AI确实耗电,电力成本也确实很高,但是目前能源问题还没有到影响AI 发展的程度。刘兴亮同意未来可能面临的隐忧,如果继续无节制地扩大参数规模,并且伴随着用户越来越多,而能耗技术没有进步,耗电将很快成为一个问题。但与此同时,他也作出了比较乐观的展望,认为可以通过技术进步、能源转型等手段来解决这一问题。

总的来说,人工智能的快速发展对电力需求提出了挑战,但目前尚未出现真正的“缺电”情况。然而,随着人工智能的持续发展和应用规模的扩大,电力供应的问题可能会逐渐显现出来。因此,为了应对未来可能出现的能源挑战,需要在技术创新、能源转型和政策引导等方面采取相应措施,确保人工智能的可持续发展和电力供应的稳定。