ChatGPT 消耗多少能源?比你想象的要多,但也不全是坏消息

一切事物皆有其代价,人工智能领域亦不例外。尽管ChatGPT与Gemini等应用可免费使用,但它们背后需依赖惊人的计算能力来支撑。更甚者,大型科技公司正陷入一场构建更大、更先进模型的军备竞赛,GPT-5等模型便是明证。批评者指出,对高性能、能源密集型硬件的需求激增,将对气候变化造成灾难性影响。那么,诸如ChatGPT此类的人工智能究竟消耗了多少能源?从环境视角来看,这种能耗又意味着什么呢?让我们深入剖析。

ChatGPT的能耗:AI的电力需求

OpenAI早期的GPT-3大型语言模型训练需耗费近1,300兆瓦时(MWh)的电力,这相当于大约120个美国家庭一年的用电量。而每个美国家庭年均耗电量约为10,000千瓦时。但这还只是冰山一角,AI模型还需处理每个查询的计算能力,即推理,这需要大量强大的服务器,它们分散在全球数千个数据中心内。这些服务器的核心往往是NVIDIA的H100芯片,每个芯片功耗达700瓦,且通常会部署数百个这样的芯片。

尽管估算结果差异较大,但多数研究人员认为,ChatGPT每日的电力需求可达数百兆瓦时,足以满足美国数千乃至数万户家庭一年的用电需求。鉴于ChatGPT并非生成式人工智能领域的唯一玩家,其能耗只会持续增长。

至2027年,AI或消耗全球0.5%的电力

2023年发表的一篇论文尝试预测生成式人工智能行业在未来几年的电力消耗。作者Alex de Vries预计,到2027年,市场领导者NVIDIA将出货多达150万台AI服务器,这将导致AI服务器每年消耗85.4至134太瓦时(TWh)的电力,这一数字已超过荷兰、孟加拉国和瑞典等国的年用电量。

尽管这些数字令人咋舌,但值得注意的是,全球总发电量几年前已接近29,000 TWh。换言之,至2027年,AI服务器将占据全球能源消耗的约0.5%。这是否意味着很多?答案是肯定的,但还需结合背景来判断。

AI电力消耗的对比案例

AI可能消耗的电力虽与较小国家的电力产出相当,但它并非唯一高能耗行业。实际上,为互联网其他部分提供支持的数据中心所消耗的电力远超专用于AI的数据中心,且这一需求一直在增长,无论ChatGPT等新产品的发布如何。据国际能源署数据,目前全球所有数据中心的耗电量为460 TWh。自2009年大衰退结束以来,这一趋势急剧上升,直至2022年底AI才开始崭露头角。

即便我们考虑研究人员所述的最坏情况,即AI服务器将消耗134 TWh的电力,与全球数据中心整体消耗量相比,这也只是九牛一毛。例如,Netflix在2019年消耗的电力足以供40,000个美国家庭使用,且此后这一数字肯定有所增加,但并未引发全面停止互联网流媒体的呼声。空调占全球电力消耗的10%,是AI在2027年最糟糕情况下消耗量估计的20倍。

与全球数据中心整体的用电量相比,AI的用电量显得微不足道。同时,AI的电力消耗也可与比特币的能源使用争议相提并论。比特币同样因高耗电量而备受批评,被视为严重的环境威胁。然而,采矿的经济激励促使其在能源更便宜和可再生能源丰富的地区得到采用。这只有在这些地区电力充足的情况下才可能实现,否则这些电力可能会被浪费。因此,我们应真正关注AI的碳足迹,而非仅聚焦于原始的电力消耗数字。

好消息是,与加密货币挖矿业务类似,数据中心通常战略性地建在电力充足或生产成本较低的地区。新加坡租用服务器比芝加哥便宜得多便是明证。谷歌已设定目标,到2030年让其所有数据中心全天候使用无碳能源。根据其2024年环境报告,该公司数据中心64%的电力使用已来自无碳能源。微软也设定了类似目标,其Azure数据中心为ChatGPT提供支持。

提高效率:AI的电力需求会趋于稳定吗?

随着生成式AI技术的不断进步,各公司正在开发更小、更高效的模型。自2022年底ChatGPT发布以来,我们已见证大量模型在保持性能的同时优先考虑效率。其中一些较新的AI模型可提供与几个月前更大模型相当的结果。

例如,OpenAI最近的GPT-4o mini相较于其所取代的GPT-3 Turbo成本更低。该公司尚未透露效率数据,但API成本的显著降低表明计算成本(以及电力消耗)大幅降低。我们还看到了在设备上处理任务(如摘要和翻译)的趋势,这些任务可通过较小的模型实现。尽管有人可能会争辩说,如Galaxy AI等新软件套件的加入会增加设备本身的功耗,但其所带来的生产力提升足以抵消这种权衡。对于许多人而言,纯粹的便利性使适度增加的能耗变得值得。

然而,并非所有人都认为AI是必要或有益的发展。对某些人来说,任何额外的能源使用都被视为不必要或浪费,无论效率提高多少都无法改变这一现状。只有时间才能告诉我们,AI是否是必要之恶,就像我们生活中的许多其他技术一样,还是仅仅是对电力的浪费。

标签