新工具可用于帮助减少 AI 模型消耗的能量

AI在线 · 2023-12-28 20:54 · 446浏览

在 Google 上搜索航班时,您可能已经注意到,现在每个航班的碳排放量估算值都显示在其成本旁边。这是一种告知客户其对环境影响的方式,并让他们将这些信息纳入决策中。

 

尽管计算机行业的碳排放量超过了整个航空业的碳排放量,但这种透明度尚不存在。这种能源需求不断升级的是人工智能模型。ChatGPT 等巨大的流行模型预示着大规模人工智能的趋势,推动了预测,预计到 2030 年,数据中心将消耗全球 21% 的电力供应。

 

麻省理工学院林肯实验室超级计算中心(LLSC)正在开发技术,以帮助数据中心控制能源使用。他们的技术范围从简单但有效的更改,如功率上限硬件,到采用可以在早期停止人工智能训练的新工具。至关重要的是,他们发现这些技术对模型性能的影响最小。

 

从更广泛的角度来看,他们的工作是动员绿色计算研究并促进透明文化。“能源感知计算并不是一个真正的研究领域,因为每个人都在保留他们的数据,”领导能源感知研究工作的LLSC高级职员Vijay Gadepally说。“必须有人开始,我们希望其他人也能效仿。

 

抑制功率和冷却

与许多数据中心一样,LLSC 在其硬件上运行的 AI 作业数量显着增加。注意到能源使用量的增加,LLSC的计算机科学家对更有效地运行作业的方法感到好奇。绿色计算是该中心的一项原则,该中心完全由无碳能源提供动力。

 

训练 AI 模型(从庞大数据集中学习模式的过程)需要使用图形处理单元 (GPU),这些硬件是耗电的硬件。例如,训练 GPT-3(ChatGPT 的前身)的 GPU 估计消耗了 1,300 兆瓦时的电力,大致相当于 1,450 个美国普通家庭每月使用的电力。

 

虽然大多数人寻求 GPU 是因为其计算能力,但制造商提供了限制 GPU 允许消耗的功率的方法。“我们研究了封顶功率的影响,发现我们可以将能耗降低约12%至15%,具体取决于模型,”LLSC的研究员Siddharth Samsi说。

 

上限功率的权衡是增加任务时间——GPU 完成任务所需的时间将延长约 3%,Gadepally 表示,考虑到模型通常需要几天甚至几个月的训练,这种增加“几乎不明显”。在他们的一项实验中,他们训练了流行的 BERT 语言模型,将 GPU 功率限制在 150 瓦,训练时间增加了两个小时(从 80 小时增加到 82 小时),但节省了相当于美国家庭一周的能源。

 

然后,该团队构建了软件,将这种功率封顶功能插入到广泛使用的调度器系统 Slurm 中。该软件允许数据中心所有者在其系统中或逐个作业设置限制。

 

“我们今天就可以部署这种干预措施,我们已经在所有系统中这样做了,”Gadepally说。

 

附带的好处也出现了。自从实施功率限制以来,LLSC 超级计算机上的 GPU 一直在运行约 30 华氏度的温度和更稳定的温度,从而减少了冷却系统的压力。运行硬件冷却器还可以提高可靠性和使用寿命。他们现在可以考虑推迟购买新硬件——减少中心的“隐含碳”,或通过制造设备产生的排放——直到使用新硬件获得的效率抵消了这方面的碳足迹。他们还在寻找减少冷却需求的方法,通过战略性地将作业安排在夜间和冬季运行。

 

Gadepally说:“数据中心今天可以使用这些易于实施的方法来提高效率,而无需修改代码或基础设施。

 

全面了解数据中心的运营以寻找削减成本的机会可能会耗费大量时间。为了让其他人更容易完成这一过程,该团队与东北大学的Devesh Tiwari教授和Baolin Li合作,最近开发并发布了一个用于分析高性能计算系统碳足迹的综合框架。系统从业者可以使用此分析框架来更好地了解其当前系统的可持续性,并考虑对下一代系统进行更改。 

 

调整模型的训练和使用方式

除了对数据中心运营进行调整外,该团队还在设计提高 AI 模型开发效率的方法。

 

在训练模型时,AI 开发人员通常专注于提高准确性,并以以前的模型为基础进行构建。为了实现所需的输出,他们必须弄清楚要使用哪些参数,而要做到这一点可能需要测试数千种配置。这个过程被称为超参数优化,是LLSC研究人员发现的减少能源浪费的成熟领域之一。 

 

“我们开发了一个模型,基本上着眼于给定配置的学习速度,”Gadepally说。鉴于这个比率,他们的模型预测了可能的表现。表现不佳的模型会提前停止。“我们可以在早期给你一个非常准确的估计,最好的模型将在100个模型中的前10个模型中,”他说。

 

在他们的研究中,这种提前停止导致了巨大的节省:用于模型训练的能源减少了 80%。他们将这种技术应用于为计算机视觉、自然语言处理和材料设计应用程序开发的模型。

 

“在我看来,这种技术在推进人工智能模型训练方式方面具有最大的潜力,”Gadepally说。

 

训练只是 AI 模型排放的一部分。随着时间的推移,排放的最大贡献者是模型推理,或实时运行模型的过程,例如用户与 ChatGPT 聊天时。为了快速响应,这些模型使用冗余硬件,一直运行,等待用户提出问题。

 

提高推理效率的一种方法是使用最合适的硬件。此外,该团队还与东北大学合作,创建了一个优化器,将模型与碳效率最高的硬件组合相匹配,例如用于推理计算密集型部分的高功率GPU和用于要求较低的方面的低功耗中央处理器(CPU)。这项工作最近在国际ACM高性能并行和分布式计算研讨会上获得了最佳论文奖。

 

使用此优化器可以减少 10-20% 的能源使用,同时仍能满足相同的“服务质量目标”(模型的响应速度)。

 

此工具对于云客户特别有用,这些客户从数据中心租用系统,并且必须从数千个选项中选择硬件。“大多数客户高估了他们的需求;他们之所以选择功能过强的硬件,只是因为他们不知道更好,“Gadepally 说。

 

绿色计算意识的增强

实施这些干预措施所节省的能源也降低了开发人工智能的相关成本,通常以一比一的比例降低。事实上,成本通常被用作能源消耗的代名词。既然节省了这些成本,为什么不让更多的数据中心投资于绿色技术呢?

 

“我认为这有点激励失调的问题,”萨姆西说。“在构建更大更好的模型方面,有如此激烈的竞争,几乎所有次要考虑因素都被搁置一旁。

 

他们指出,虽然一些数据中心购买了可再生能源信用额度,但这些可再生能源不足以满足不断增长的能源需求。为数据中心供电的大部分电力来自化石燃料,而用于冷却的水正在加剧流域的压力。 

 

犹豫也可能存在,因为没有对节能技术进行系统的研究。这就是为什么该团队除了开源存储库之外,还一直在同行评审的场所推动他们的研究。一些大型行业参与者,如谷歌DeepMind,已经应用机器学习来提高数据中心的效率,但还没有将他们的工作提供给其他人部署或复制。 

 

顶级人工智能会议现在正在推动考虑人工智能如何被滥用的道德声明。该团队认为气候方面是一个尚未受到太多关注的人工智能伦理话题,但这种情况似乎也在慢慢改变。一些研究人员现在正在披露训练最新模型的碳足迹,行业也显示出能源透明度的转变,正如 Meta AI 最近的这份报告一样。

 

他们还承认,如果没有能够向人工智能开发人员展示其消费的工具,就很难实现透明度。报告是关于今年的LLSC路线图。他们希望能够向每个LLSC用户展示每项工作,他们消耗了多少能源,以及这个数量与其他能源相比如何,类似于家庭能源报告。

 

这项工作的一部分需要与硬件制造商更紧密地合作,以便更容易、更准确地从硬件中获取这些数据。如果制造商能够标准化数据的读取方式,那么节能和报告工具就可以应用于不同的硬件平台。LLSC 研究人员和英特尔之间正在开展合作,以解决这一问题。

 

即使对于意识到人工智能强烈能源需求的人工智能开发人员来说,他们也无法独自做太多事情来遏制这种能源使用。LLSC团队希望帮助其他数据中心应用这些干预措施,并为用户提供能源感知选项。他们的第一个合作伙伴关系是与美国空军合作,美国空军是这项研究的赞助商,该研究运营着数千个数据中心。应用这些技术可以显着降低其能耗和成本。

 

“我们正在将控制权交到想要减少足迹的人工智能开发人员手中,”Gadepally说。“我真的需要无缘无故地训练没有前途的模型吗?我是否愿意放慢 GPU 的运行速度以节省能源?据我们所知,没有其他超级计算中心让您考虑这些选项。使用我们的工具,今天,您可以做出决定。