APP下载

训练ChatGPT需要消耗多少电力

2023-05-14伊烨然

计算机与网络 2023年6期
关键词:用电量数据中心芯片

伊烨然

微软、谷歌和ChatGPT制造商OpenAI都要使用云计算,而云计算依赖于全球海量数据中心服务器内数以千计的芯片来训练被称为模型的AI算法,分析数据以帮助这些算法学习如何执行任务。AI已经重新成为科技行业的热门话题,预计它将彻底改变从零售到医药等价值数万亿美元的行业。但每创造一个新的聊天机器人或图像生成器都需要耗费大量的电力,这意味着这项技术可能释放大量温室气体,进而加剧全球变暖问题。

与其他形式的计算相比,AI需要使用更多的能源,训练单个模型消耗的电力超过100多个美国家庭1年的用电量。然而,雖然AI行业增长非常快,但却不够透明,以至于没有人确切知道AI的总用电量和碳排放量。碳排放量也可能有很大差异,这取决于提供电力的发电厂类型,靠烧煤或天然气发电供电的数据中心,其碳排放量显然高于太阳能或风力发电支持的数据中心。

虽然研究人员已经统计了创建单一模型所产生的碳排放量,有些公司也提供了有关他们能源使用的数据,但他们没有对这项技术的总用电量进行总体估计。AI公司Huging Face研究员萨莎·卢西奥尼写了一篇论文,量化了她旗下公司Bloom的碳排放情况,Bloom是OpenAI模型GPT-3的竞争对手。卢西奥尼还试图根据一组有限的公开数据,对OpenAI聊天机器人ChatGPT的碳排放情况进行评估。

提高透明度

卢西奥尼等研究人员表示,在AI模型的电力使用和排放方面,需要提高透明度。有了这些信息,政府和公司可能会衡量使用GPT-3或其他大型模型来研究癌症治疗或保护土著语言是否值得。

更高的透明度也可能带来更多的审查,加密货币行业可能会提供前车之鉴。根据剑桥比特币电力消耗指数,比特币因其耗电量过大而受到批评,每年的耗电量与阿根廷一样多。这种对电力的贪婪需求促使纽约州通过了一项为期2年的禁令,暂停向以化石燃料发电供电的加密货币采矿商发放许可证。

GPT-3是功能单一的通用AI程序,可以生成语言,具有多种不同的用途。2021年发表的一篇研究论文显示,训练GPT-3耗用了1.287 GWh电量,大约相当于120个美国家庭1年的用电量。同时,这样的训练产生了502 t碳,相当于110辆美国汽车1年的排放量。而且,这种训练只适用于一个程序(或者说是模型)。

虽然训练AI模型的前期电力成本巨大,但研究人员发现,在某些情况下,这只是模型实际消耗电力的40 %左右。此外,AI模型也在变得越来越大。OpenAI的GPT-3使用1 750亿个参数或变量,而其前身仅使用了15亿个参数。

OpenAI已经在研究GPT-4,而且必须定期对模型进行再训练,以保持其对时事的了解。卡内基梅隆大学教授艾玛·斯特鲁贝尔是首批研究AI能源问题的研究人员之一,她说:“如果你不对模型进行再训练,它甚至可能不知道何为新冠肺炎。”另一个相对的衡量标准来自谷歌,研究人员发现,AI训练占该公司总用电量的10 % ~15 %,2021年该公司的总用电量为18.3 TWh。这意味着,谷歌的AI每年耗电量达2.3 TWh,大约相当于亚特兰大所有家庭的1年用电量。

科技巨头做出净零承诺

虽然在许多情况下,AI模型变得越来越大,但AI公司也在不断改进,使其以更高效的方式运行。微软、谷歌和亚马逊等美国最大的云计算公司,都做出了碳减排或净零承诺。谷歌在一份声明中表示,到2030年,该公司将在所有业务中实现净零排放,其目标是完全使用无碳能源运营其办公室和数据中心。谷歌还在使用AI来提高其数据中心的能效,该技术直接控制设施中的冷却系统。

OpenAI也列举了该公司为提高ChatGPT应用程序编程接口的效率所做的工作,帮助客户降低了用电量和价格。OpenAI发言人表示:“我们非常认真地承担起阻止和扭转气候变化的责任,我们对如何最大限度地利用我们的计算能力进行了很多思考。OpenAI运行在Azure上,我们与微软团队密切合作,以提高运行大型语言模型的效率并减少碳排放。”微软指出,该公司正在购买可再生能源,并采取其他措施,以实现之前宣布的目标,即到2030年实现净零排放。微软在声明中称:“作为我们创造更可持续性未来承诺的一部分,微软正在投资于研究,以衡量AI的能源使用和碳排放影响,同时致力于提高大型系统在培训和应用方面的效率。”

耶路撒冷希伯来大学教授罗伊·施瓦茨与微软的一个团队合作,测量了一个大型AI模型的碳足迹。他表示:“显然,这些公司不愿透露他们使用的是什么模型,以及它排放了多少碳。”

有些方法可以让AI更高效地运行。能源咨询公司Wood Mackenzie的本·赫兹·沙格尔表示:“由于AI训练可以随时进行,开发者或数据中心可以将训练安排在电力更便宜或过剩的时候,从而使它们的运营更加环保。AI公司在电力过剩时训练自己的模型,然后在营销中将其当成一大卖点,以此表明他们注重环保。”

芯片运行耗电量惊人

大多数数据中心使用图形处理单元(GPU)来训练AI模型,这些组件是芯片行业制造的最耗电组件之一。摩根士丹利分析师早些时候发布的一份报告称,大型模型需要数万个GPU,培训周期从几周到几个月不等。

AI领域更大的谜团之一是与所使用芯片相关的碳排放总量。最大的GPU制造商英伟达表示,当涉及到AI任务时,他们的芯片可以更快地完成任务,总体上效率更高。

英伟达在声明中表示:“与使用CPU相比,使用GPU来加速AI速度更快,也更高效。对于某些AI工作负载来说,能效通常可以提高20倍,对于生成式人工智能必不可少的大型语言模型,能效则可提高300倍。”

卢西奥尼说:“虽然英伟达已经披露了与能源相关的直接排放和间接排放数据,但该公司并没有透露更多细节。她认为,当英伟达分享这些信息时,我们可能发现GPU消耗的电量与一个小国用电量差不多,这可能会让人抓狂。

猜你喜欢

用电量数据中心芯片
02 国家能源局:1~7月全社会用电量同比增长3.4%
01 国家能源局:3月份全社会用电量同比增长3.5%
酒泉云计算大数据中心
民航绿色云数据中心PUE控制
1~10月全社会用电量累计56552亿千瓦时同比增长8.7%
芯片测试
多通道采样芯片ADS8556在光伏并网中的应用
基于云计算的交通运输数据中心实现与应用
2014年全社会用电量
Overlay Network技术在云计算数据中心中的应用