• AI高速发展,全球电力跟得上吗?

  •     “大型科技公司在人工智能(AI)时代的新烦恼:如何找到足够的电力?”《华尔街日报》3月27日发文,对AI的高耗电特点进行了报道。AI的这一特点近期引发广泛关注,甚至有研究显示,谷歌AI系统一年需要的电力将与荷兰一个国家一年的用电量相差无几。
        马斯克等科技大佬纷纷对AI行业将面临的电力短缺发出警告。有专家提醒,发展AI需要的不只是足够的电力,还有与之相配套的基础设施。
        此外,AI高耗电特性带来的不只是能源压力,还有环境问题。

        好消息是,AI的发展本身就能帮助实现电力供应的突破,也有助于企业降低温室气体排放。

    用电量惊人

        每年3月,都会有上千的企业高管聚集在美国得州休斯敦市,参加能源行业的一场国际高端会议,达成石油和天然气交易,并就应对气候变化的计划展开讨论。这一高端会议就是已经举行了42届的“剑桥能源周”,而今年的会议有了一个新主题——AI。
        “AI对电力的巨大需求是不可回避的话题,也是让人焦虑和兴奋并存的原因”,据《华尔街日报》报道,大多数人认为,推动AI发展所需的数据中心将需要大量电力。微软公司创始人比尔·盖茨在“剑桥能源周”期间表示,电力是决定数据中心能否盈利的关键因素,而AI消耗的电力是惊人的。
        比尔·盖茨并非唯一一位对AI高耗电特点表示担忧的科技大佬。美国特斯拉公司首席执行官马斯克认为,未来几年内AI行业将由“缺硅”变为“缺电”。OpenAI首席执行官奥尔特曼在今年的达沃斯论坛上直言,大家仍然没有意识到技术对能源的需求,如果在能源方面不能取得突破,就不可能实现技术目标。美国芯片制造商英伟达的创始人兼首席执行官黄仁勋近期表示,AI的尽头是光伏和储能。
        AI到底有多耗电呢?美国Vox新闻网举例说,训练像GPT-3这样的大型语言模型,需要使用近1300兆瓦时的电力,相当于130个美国家庭的年用电量。今年1月,国际能源署(IEA)发布了对未来两年全球能源使用的预测,报告首次纳入了与数据中心、加密货币和AI相关的用电量预测。IEA估计,2022年,这些用电量加在一起几乎占全球电力需求的2%;到2026年,和这些用途有关的电力需求可能会翻一番,大致相当于现在整个日本的用电量,而能源需求增长最快的领域之一就是被称为生成式AI的机器学习。
        据《华尔街日报》等媒体报道,荷兰阿姆斯特丹自由大学商业与经济学院研究员德弗里斯去年10月预测,根据英伟达专门为AI制造的微芯片当前和未来的销量,AI系统的全球用电量可能会增加到15吉瓦。到2027年,AI服务器每年的用电量将在85到134太瓦时之间。这相当于阿根廷或者荷兰等国一年的用电量,约占目前全球用电量的0.5%。目前,英伟达在数据中心AI专用芯片市场上占有90%以上的份额,这使其产量成为整个行业用电量的代表。
        德弗里斯估计,到2027年,全球数据中心所需的电量可能会增加50%,这主要“归功于”AI的发展。不过,这一数字可能还是被低估了,因为其中并没有包括在数据中心冷却AI芯片的用电量。德弗里斯表示,随着AI处理器变得越来越强大,让它们保持在工作范围内变得越来越困难,而且运行它们所需的总电量可能会增加10%到100%。美国星座能源公司预测,未来AI对电力的需求可能是美国电动汽车充电所需总量的5到6倍。
        “为什么AI会消耗这么多电力?”《福布斯》杂志网站援引法国AI图片编辑软件PhotoRoom一名负责人的话解释称,AI模型耗电多是因为模型训练的数据量巨大、模型非常复杂以及用户向AI提出的请求量大。在训练过程中,AI模型根据大量的示例和数据“学习”如何回答问题。训练一个AI模型可能需要几分钟到几个月的时间,这取决于模型的数据量及其复杂性。在此期间,图形处理器(GPU)——一种用于处理大量数据的电子芯片——每天24小时运行,消耗大量电量。
        此外,在回答用户问题时,AI首先需要“理解”问题,然后“思考”答案,最后将结论分享给用户,每个过程都需要GPU的处理能力,也需要消耗电力。
        《华尔街日报》等媒体称,每次用户与AI系统交互时,后者都必须重新进行计算,而普通的谷歌搜索结果副本可以被存储或缓存,并在其他人进行相同搜索时提供给他们。根据IEA的数据,一次谷歌搜索需要0.3瓦时的电力,而一次ChatGPT请求需要2.9瓦时的电力。如果ChatGPT被整合到每天90亿次的搜索中,电力需求将每年增加10太瓦时。北京邮电大学教授李静林告诉记者,目前AI主要涉及深度学习、强化学习和大模型开发等,这需要大量GPU的堆积,而就算是低端入门级别的4090系列的GPU,其功耗最低已达到300瓦或400瓦级别。
    变电器短缺+AI末世论叙事

        马斯克认为,AI的高速发展,不仅将导致全球电力供应紧张,还可能导致变压器短缺。他解释说,如果有100千伏~300千伏的电压从电力网络中输出,它必须一路降压到6伏,这是一个很大的降幅。盘古智库理事长易鹏对记者表示,AI耗电占社会总用电量的比例将飞跃式提升,AI的高耗电会使发电、变电、输电、配电、用电等电网设施、设备持续短缺。同时,与电力相关的能源价格会持续走高,直至更低成本的新技术出现。
        李静林表示,AI或电子系统的耗电与工业系统有所不同,工业系统主要使用交流电,而电脑等使用的是稳定的、“干净的”直流电。但水电和风电的缺点在于风速和水流速度时快时慢,不够稳定,杂波太多,不够“干净”,因此如何将不稳定的水电清洁能源转化为稳定状态,是需要解决的问题,这关系到今后AI的电力供应。李静林认为,AI的高耗电会给相关企业甚至国家带来影响,最终结果很有可能是较大国家在竞争中胜利,而较小的国家因实力不足而放弃。
        “如果将大型语言模型、GPT风格的模型整合到搜索引擎中,它的环境成本将是普通搜索的5倍。”据美国广播公司(ABC)报道,位于纽约的“AI现在研究所”负责人韦斯特这样说。美国《财富》杂志网站此前报道称,在2023年的《联合国气候变化框架公约》第二十八次缔约方大会上,出现了一种关于AI的末世论叙事,其重点就是对AI迅速增长的电力需求的担忧。
        美国斯坦福大学的一项研究表明,自21世纪首个十年以来,AI系统的电力需求增长了30万倍,其中一些电力来自化石燃料,全球数据中心消耗的电力占全球电力的1%以上,其中1/3来自煤炭和天然气。美国马萨诸塞大学阿默斯特分校的研究显示,训练一个AI模型可能排放超过284吨的二氧化碳,相当于5辆普通美国汽车的寿命排放量。每年,AI的碳足迹接近全球排放量的1%。不过,英特尔和通用电气等公司正在利用AI大幅减少二氧化碳的排放。美国风险管理咨询公司麦肯锡的研究显示,AI增强的制造业可以减少10%~20%的温室气体排放。

    美政府想让科技公司在园区内建核电站

        在认识到AI高耗电的特性后,很多企业将目光转向核电。美国有线电视新闻网(CNN)等媒体报道称,奥尔特曼认为,核聚变是解决AI不断飙升电力需求的答案。他向美国核聚变初创公司Helion能源投资了3.75亿美元。奥尔特曼也是初创公司Oklo的主席,该公司专注于通过核裂变发电。
        2023年,微软决定将从2028年开始从Helion能源购买电力。同样在2023年,微软与美国星座能源公司签署了一项协议,要求后者为微软位于弗吉尼亚州的数据中心增加核能发电。此前一年,谷歌参与了TAE科技公司2.5亿美元的融资。该公司位于美国加州,致力于开发中子聚变动力。2021年年底,亚马逊创始人贝索斯和其他投资者为加拿大核公司通用聚变公司筹集了超过1.3亿美元的投资。各大科技公司对核电企业的关注,也导致后者的股价今年出现大涨。截至3月,美国星座能源公司的股价今年已累计上升60%。
        就连美国政府也将核电作为应对AI高耗电的一项重要措施。据美国Axios新闻网报道,美国能源部正在探索如何让科技公司在其庞大的数据中心园区内建立小型核电站。美国能源部长格兰霍姆表示,与微软、谷歌和亚马逊等大公司的对话需要“加快步伐,因为(它们)对电力的需求只会增加”。
        不过,英国曼彻斯特大学的核聚变研究员阿尼卡·汗表示,通过核聚变发电的技术可能要到本世纪下半叶才能准备好。还有专家警告说,无论需求增长有多快,扩大核电的努力都不应该急于求成。加拿大卡尔顿大学机械和航空航天工程助理教授阿卜杜拉说:“如果我们向目标冲刺,就有可能犯严重错误。”(摘编自环球网  文/陈子帅 王晓雄)


分享到微信朋友圈