ChatGPT 每日消耗相当于1.7万户家庭电量,值得吗?

马斯克近期指出,继芯片短缺之后,人工智能(AI)的快速发展可能将面临电力供应的挑战。尽管AI的算力需求和相应的电力、水资源消耗众所周知,具体消耗量却不甚明了。部分地区已经开始感受到AI发展带来的电力负担,研究人员也在努力测量其能耗。

为迎接科技巨头所绘制的与AI紧密共存的未来,及时计算其能源消耗成为必要。HuggingFace与卡内基梅隆大学的研究人员去年12月发布了一篇论文,统计了88个不同AI模型在执行任务时的电力消耗情况。论文指出,图像生成模型在推断1000次时平均耗电2.907千瓦时,而文本模型的耗电量则相对较低。

这些数据仅代表模型使用时的耗电量,而模型训练本身的用电量则更大。GPT-3模型训练的耗电量可达1300兆瓦时,相当于130个美国家庭一年的用电。但随着AI公司在竞争中变得更加保密,模型训练的具体信息变得难以获得,增加了能耗估算的难度。

荷兰中央银行的Alex de Vries则从更广角度估算AI领域的总电力消耗。他预测,到2027年,AI行业的年耗电量将介于85-134太瓦时,相当于荷兰全国的用电量。特别地,ChatGPT每天处理的2亿个用户请求将耗电50万千瓦时,若Google将AI融入每次搜索,其年耗电量将大幅上升。

由于AI模型和数据的规模不断扩大,其用电量难以降低。尽管从2010年到2018年,全球数据中心的用电量保持相对稳定,但AI的快速发展可能改变这一现状。在这种背景下,透明度成为一个关键问题,要求公司披露数据以监控能耗。

为了应对能源消耗问题,一些AI初创公司正在开发训练成本更低的模型。同时,美国部分电力公司正考虑重启化石燃料发电厂,以应对用电量的激增。国际能源署预测,未来三年内,全球对数据中心、加密货币和AI的电力需求将翻倍,突显出对重大能源突破的迫切需求。

然而,也有观点认为,考虑到AI的局限性,我们需要重新审视其在某些领域的应用必要性,以避免不必要的能源浪费。这篇文章对AI发展中的能源挑战进行了全面分析,揭示了未来科技与能源消耗之间的紧张关系。