加载中…
个人资料
刘群鸣
刘群鸣
  • 博客等级:
  • 博客积分:0
  • 博客访问:24,848
  • 关注人气:589
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

人工智能会导致电力短缺吗

(2024-05-29 12:00:00)
分类: 军事与科技
人工智能会导致电力短缺吗
2024年05月23日 经济日报

“人工智能耗电远大于数据中心”“人工智能发展将让现有电网崩溃”“科技公司要建核电站”……
近段多个国际会议上,一些科技巨头纷纷表达了对人工智能高能耗问题的担忧。
面对人工智能发展对电力系统的潜在影响,国家能源局公开回应,将密切跟踪人工智能等高新技术发展趋势,确保能源稳定供应与需求增长相适应。

人工智能真的会导致电力短缺吗?
以人工智能生成图片功能为例,每生成一幅图片,耗电量相当于一部智能手机充满电的电量。
一块英伟达H100型GPU芯片一年消耗的电量比一个中等规模的家庭都要多。
据估计,从2027年起,仅人工智能新增的服务器,一年消耗的电量就相当于荷兰或瑞典这样国家的总耗电量。
马斯克指出,人工智能消耗的算力每6个月就会增加10倍,一年多以前短缺的是芯片,接下来短缺的将是电力,“很快人们将会看到没有足够的电力来运行所有的人工智能芯片”。
对此有网友戏称“只要电费贵过馒头,人工智能就永远不能完全代替人”。

为何人工智能如此耗电?
在人们印象中,钢铁、水泥等传统产业才是耗电大户。实际上,人工智能产业也是能源密集型产业。
芯片中有许多晶体管,用来承担“开关”功能,计算机通过快速改变电压,来拨动这些开关从而实现二进制逻辑运算。单位芯片上的晶体管数量越来越多,每平方毫米甚至能集成上亿个晶体管。
再小的功耗碰上这个规模,耗电量也非常可观。
训练大模型需要在大规模数据集上反复迭代,每次迭代都需要计算和调整其中数十亿个、数百亿个乃至数千亿个参数值,这些计算最终会表现为晶体管的开开关关,每次工作都需要电力来驱动。
对于神经网络而言,规模越大,计算结果就越好,可以解决的问题就越多,但耗电量也越大。
更重要的是,这种计算并非一劳永逸,需要不断重新训练、重新优化模型
这也意味着人工智能迭代对于算力和电力的需求,似乎看不到“天花板”。
应对快速增长的用电需求,必须重新考虑电力基础设施投资和产业布局,以实现可持续发展。

在电源侧,要统筹算力电力协同布局。
我国已建成全球规模最大的电力供应系统和清洁发电体系,水电、风电、光伏发电规模多年居世界第一位。
在广大西部、北部地区,可再生能源、土地资源丰富,且随着新能源装机不断提升,未来电量存在消纳挑战
东部地区,数据中心运营成本较高
要引导对延时要求不高的数据中心向西部地区聚集,将我国绿电优势转化为算力优势。

在用电侧,要加快低碳节能技术发展。
应积极寻求更节能高效的算法和电子元器件,提升数据中心上架率。
通过改进数据中心设计,优化冷却系统,设立余热回收设备,切实提高数据中心能效水平,降低能源浪费。

人工智能能耗问题虽值得重视,但不必因噎废食。相信随着技术进步、市场发展和生产力布局优化,会找到合适的解决方案,实现高质量发展。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有