AI“进化”受水和电限制,迎来比人类更聪明的时代

生成式人工智能在当今科技领域掀起了巨大的浪潮,但与其引人注目的创新相伴随的是其庞大的能源消耗和对水资源的需求。以GPT中文站为例,这一热门的聊天机器人每天耗电超过50万度,相当于美国家庭每天用电量的1.7万多倍。全球数据中心的耗电量已经从十年前的100亿瓦增加到如今的1000亿瓦水平,而人工智能业务在其中的占比预计将从2%增至10%。

造成这一现象的主要原因之一是人工智能训练所需的巨大算力。以谷歌为例,其用于人工智能训练的能量消耗占总用电量的10%至15%,相当于一个州首府所有家庭一年的用电量。而完成一次GPT-4的训练需要约25000块英伟达A100 GPU,仅仅这些GPU一次训练就要用2.4亿度电,其中绝大部分转化为热能释放出来。

另一个值得关注的问题是人工智能对水资源的需求。为了保持数据中心运转的散热系统,大量的水资源被使用。例如,训练GPT-3所需的水量能够填满一个核反应堆的冷却塔。而ChatGPT每与用户交流25到50个问题,就需消耗一瓶500毫升的水来降温。

这种巨大的能源消耗和水资源需求不仅对环境造成影响,也引发了对未来能源供应的担忧。随着人工智能的不断发展,能源消耗问题可能会成为其发展的绊脚石。因此,需要在技术创新和资源利用方面进行进一步的研究和改进,以减少人工智能对能源和水资源的依赖,推动可持续发展的进程。

随着人工智能技术的迅猛发展,数据中心的能源消耗问题日益凸显,但各大企业和政府部门也纷纷采取措施应对这一挑战。

为了降低数据中心的能耗,企业们采取了一系列创新举措。例如,腾讯已将能源业务独立成为一级部门,并组建了专门的绿色能源团队,应用自然冷却、液冷、余热回收等节能技术来提高制冷效率。其他企业如华为、京东、亚马逊等也积极参与智慧能源领域,探索更多的节能方案。

另一个解决方案是通过热回收技术来利用数据中心散失的热能。一些企业已经开始实施废热回收再利用计划,将回收的热量用于提供民用热水和采暖,例如阿里巴巴的千岛湖数据中心。

此外,优化算法、使用更高效的芯片以及采用节能的数据中心设计等方法也被广泛采用,以降低能源消耗。

政府也在积极出台相关政策,鼓励企业研发更为节能环保的人工智能技术和基础设施。早在2021年,中国就已出台公共机构碳达峰方案,要求新建大型、超大型数据中心全部达到绿色数据中心标准。北京市也出台了关于加强数据中心项目节能审查的规定,其中包括引导数据中心充分利用再生水的内容。

通过这些努力,我们有望在未来减少人工智能技术对能源和水资源的依赖,推动人工智能行业朝着更加可持续的方向发展。