3月10日,有消息称AI再次成为科技行业的热门话题,有望彻底改变价值数万亿美元的行业,从零售到医药。然而,每创造一个新的聊天机器人或图像生成器,都需要消耗大量的电力,这意味着这项技术可能会释放大量的温室气体,从而进一步加剧全球变暖问题。
微软、谷歌和ChatGPT厂商OpenAI都想要使用云计算,而云计算是依靠全球海量数据中心的服务器中成千上万的芯片来训练的模型算法,并对数据进行分析,帮助这些算法“学习”如何执行任务。ChatGPT的成功促使其他公司推出自己的AI系统和聊天机器人,或者开发使用大型AI模型产品。
与其他形式的计算相比,AI需要使用更多的能量,而训练消耗的电能比100多个美国家庭一年的用电量还要多。但是AI行业虽然增长很快,但是不够透明,以至于没有人确切知道AI的总用电量和碳排放量。根据提供电力的发电厂的类型,碳排放也可能有很大的不同。以煤或天然气为动力的数据中心的碳排放量明显高于以太阳能或风力为动力的数据中心。
虽然研究人员统计了制造一个单个模型所产生的碳排放量,有些公司也提供了关于其能量使用的数据,但他们并没有对这项技术的总耗电量进行整体估算。AI公司拥抱脸的研究人员萨沙·卢乔尼(Sasha Luccioni)写了一篇论文,量化了OpenAI/[K1/] GPT-3的竞争对手她公司布鲁姆的碳排放量。Lucioni还试图根据一组有限的公开数据来评估OpenAI ChatGPT的碳排放量。
提高透明度
Lucioni等研究人员表示,需要提高AI/[K1/]电力使用和排放的透明度。有了这些信息,* *和公司可能会决定/[k3/] GPT-3或其他关于癌症治疗或土著语言保护的大规模模型研究是否值得。
更大的透明度也可能导致更多的审查,加密货币行业可能会提供一个警告。根据剑桥比特币功耗指数,比特币因功耗过大而饱受诟病,每年的功耗相当于阿根廷。这种贪婪的电力需求促使纽约州通过了一项为期两年的禁令,禁止向使用化石燃料发电的加密货币矿工发放许可证。
GPT-3是一个功能单一的通用AI程序,可以生成语言,有多种不同的用途。2021年发表的一篇研究论文显示训练GPT-3的耗电量为1.287 GWh,相当于120个美国家庭一年的用电量。同时,这训练产生了502吨碳,相当于110辆美国汽车一年的排放量。而且这个训练只适用于一个程序,或者“模型”。
虽然训练AI模型的前期电力成本巨大,但研究人员发现,在某些情况下,它仅为模型 使用实际消耗电力的40%左右。另外,AI模型越来越大。OpenAI GPT-3使用有1750亿个参数或变量,而它的前身only 使用有15亿个参数。
OpenAI一直在研究GPT四号,有必要定期复习模型,让它了解时事。卡内基梅隆大学的教授艾玛·瑞贝尔是最早研究AI能源问题的研究人员之一。她说,“如果你再不做模型,它可能连新冠肺炎是什么都不知道。”
另一个相对指标来自谷歌。研究人员发现AI训练占本公司总用电量的10%到15%,2021年本公司总用电量将为18.3 TWh。这意味着谷歌的AI每年消耗2.3太瓦时,大约相当于亚特兰大所有家庭一年的用电量。
科技巨头做出净零承诺
虽然在很多情况下,AI模型越来越大,但是AI公司也在不断改进,使其以更高效的方式运行。美国最大的云计算公司微软、谷歌和亚马逊都做出了碳减排或净零的承诺。谷歌在一份声明中表示,到2030年,this 公司将在其所有业务中实现零净排放,其目标是完全无碳能源地运营其办公室和数据中心。谷歌也在使用AI提高其数据中心的能源效率,该数据中心直接控制设施中的冷却系统。
OpenAI还列举了this 公司在提高ChatGPT应用编程接口效率,帮助客户降低用电量和价格方面所做的工作。OpenAI发言人表示:“我们非常严肃地对待防止和扭转气候变化的责任,我们已经想了很多如何最好地利用我们的计算能力。OpenAI运行在Azure上,我们与微软团队密切合作,提高运行大型语言模型的效率,减少碳排放。”
微软指出公司正在购买可再生能源并采取其他措施,以实现此前宣布的到2030年实现零净排放的目标。“作为我们创造更可持续未来承诺的一部分,微软正在投资研究,以测量AI对能源使用和碳排放的影响,并致力于提高大规模系统在培训和应用方面的效率,”微软在一份声明中表示。
耶路撒冷希伯来大学教授罗伊·施瓦茨(Roy Schwartz)与微软的一个团队合作,测量了一个大型AI模型的碳足迹。他说:“显然,这些公司不愿意透露它们使用是什么模型以及它排放了多少碳。”
有些方法可以让AI运行更高效。Wood Mackenzie的Ben Hertz-Shargel是一位能源顾问公司,他说,由于AI训练可以在任何时候进行,因此开发人员或数据中心可以在电力更便宜或过剩的时候安排训练,从而使他们的运营更加环保。AI公司有剩余电量的时候训练 own 模型,然后他们就可以把它作为营销的一大卖点来表明自己对环保的重视。
芯片功耗惊人。
大部分数据中心使用图形处理单元(GPU)都来自训练AI模型,这些部件是芯片行业制造的最耗电的部件之一。根据摩根士丹利分析师本月初发布的报告,large 模型需要数万个GPU,训练周期从数周至数月不等。
AI领域更大的谜团之一是使用芯片相关的碳排放总量。最大的GPU制造商Nvidia表示,在涉及AI任务时,他们的芯片可以更快地完成任务,一般效率更高。
英伟达在一份声明中表示:“与使用CPU相比,使用GPU加速AI更快,效率更高。对于某些AI工作负载,能效通常可以提升20倍,对于生成式人工智能必不可少的大规模语言模型能效可以提升300倍。”
Lucioni表示,虽然Nvidia已经披露了与能源相关的直接和间接排放数据,但公司并没有披露更多细节。她认为,当英伟达分享这些信息时,我们可能会发现GPU的功耗和一个小国差不多。“这可能会让人发疯”!
以上就是小编给大家带来的美媒关注:训练出ChatGPT需要消耗多少电力?的全部内容了,如果对您有帮助,可以关注officeba网站了解后续资讯。
相关文章
同类最新