加载中…
个人资料
刘群鸣
刘群鸣
  • 博客等级:
  • 博客积分:0
  • 博客访问:197,393
  • 关注人气:589
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

人工智能耗电为何如此惊人

(2025-03-29 12:00:00)
分类: 军事与科技
外媒:人工智能耗电为何如此惊人?
2025-03-12

瑞士《新苏黎世报》网站2月24日发表文章,题为《美国科技企业向人工智能领域投资数十亿美元,造成了电力问题》,内容编译如下:

构成人工智能支柱的基础设施:数据中心。

美国数据中心的数量远超欧洲。在那里,高度专业化的芯片昼夜不停地训练和运行着人工智能模型。这些数据中心消耗着大量电力。在弗吉尼亚州,数据中心的用电量已占总用电量的四分之一。但问题是,该从哪里尽可能环保并可靠地获取这些能源呢?

人工智能会多次消耗电力:在训练人工智能模型时会消耗大量电力,用户每次向模型提出请求时也会消耗电力。根据要生成的内容不同——无论是文本、图像还是视频,向聊天机器人(如ChatGPT)提出的每个请求所消耗的能源是使用搜索引擎进行在线搜索的10到30倍。

此外,与云应用等所需的传统芯片相比,训练和应用人工智能所需的计算机芯片耗电量更大。原因在于,训练人工智能模型或处理询问时,芯片主要进行计算,而不仅仅是存储信息。这还会产生额外热量。因此,需要对数据中心进行特别冷却。特别是在得克萨斯州或亚利桑那州等炎热地区,这需要大量的额外电力。

对数据中心未来能耗的预测也反映了这一点。麦肯锡咨询公司的一项研究预计,到2030年,美国数据中心的能耗功率将达到80千兆瓦,去年还只有25千兆瓦。波士顿咨询公司也预计能源需求将增加到原来的3倍。该公司表示,预测时已考虑到人工智能效率不断提高这一事实。不只是美国,全球各国政府和公司都在投资扩建数据中心。咨询公司贝恩写道,2019年至2023年间,全球数据中心的能耗增加了72%。到2027年,预计将再翻一番。

目前,数据中心占全球能源需求的1%。如果预估正确,到2027年,它将占全球能源需求的2.6%。

早在1年前,OpenAI的首席执行官萨姆·奥尔特曼就警告称,能源瓶颈正在危及人工智能的发展。

如果能够节省计算能力,数据中心的耗电量也会减少。巴巴克·法勒萨菲也表示:“改进算法可以提高效率,从而节约能源。”

事实上,更高效训练人工智能的算法并不一定会降低人工智能应用的总体能源需求。它们让人工智能变得更便宜,从而对用户更具吸引力。如果更多的人和公司使用人工智能,耗电量就会再次增加。这样一来,成本和能源需求只会从训练阶段转移到应用阶段。

这就是微软关注核能并资助三英里岛核电站重新运营的原因。该核电站因不再盈利,于2019年关闭。亚马逊和谷歌在去年秋天宣布将大力投资所谓的“小型模块化反应堆”。这些小型模块化核电站的发电量高达300兆瓦,可以直接为数据中心供电。然而,在美国,这些迷你核电站都还没有并网,或者接近投入运营。

OpenAI首席执行官奥尔特曼本人也寄望于奥克洛这样的初创公司,该公司正在研发以核废料为燃料的小型核反应堆。他还向氦核能源公司投资,这是一家专门研究核聚变的公司。奥尔特曼斥资数亿美元押注能源行业,希望能在此取得突破。

然而,这一突破仍然遥遥无期。能源生产新方式可能需要数年乃至数十年才能提供足够的电力。在此之前,数据中心将主要依赖化石燃料产生的能源运行。这是因为人工智能热潮如今正在消耗电力。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有