您的位置:首页 >生活 >

计算机科学家指明了道路人工智能模型不必那么耗电

导读 谷歌搜索、与Siri交谈、要求ChatGPT完成某件事或在任何意义上使用人工智能都需要花费大量精力,这一事实已逐渐成为常识。一项研究估计,到2

谷歌搜索、与Siri交谈、要求ChatGPT完成某件事或在任何意义上使用人工智能都需要花费大量精力,这一事实已逐渐成为常识。

一项研究估计,到2027年,人工智能服务器消耗的能源将与阿根廷或瑞典一样多。事实上,据估计,一次ChatGPT提示平均消耗的能量相当于40部手机的电量。但哥本哈根大学计算机科学研究人员指出,研究界和业界尚未将开发节能、对气候更加友好的人工智能模型作为重点。

“如今,开发人员主要专注于构建在结果准确性方面有效的人工智能模型。这就像说汽车是有效的,因为它可以让你快速到达目的地,而不考虑它使用的燃料量。结果,人工智能模型在能源消耗方面往往效率低下。”计算机科学系助理教授RaghavendraSelvan说道,他的研究着眼于减少人工智能碳足迹的可能性。

但他和计算机科学系学生PedramBakhtiarifard是一项新研究的两位作者,该研究表明,在不影响人工智能模型精度的情况下,很容易抑制大量CO2e。这样做需要在人工智能模型的设计和训练阶段牢记气候成本。该研究将在国际声学、语音和信号处理会议(ICASSP-2024)上发表。

“如果你从一开始就打造出一个节能的模型,那么你就可以减少模型&luo;生命周期&ruo;每个阶段的碳足迹。这既适用于模型的训练(这是一个特别耗能的过程,通常需要数周或数月的时间),也适用于其应用,”Selvan说。

人工智能行业的食谱

在他们的研究中,研究人员计算了训练超过400,000个卷积神经网络类型的AI模型需要多少能量——这是在没有实际训练所有这些模型的情况下完成的。除其他外,卷积神经网络还用于分析医学图像、语言翻译以及物体和面部识别——您可能从智能手机上的相机应用程序中了解到这一功能。

根据计算结果,研究人员提出了一系列人工智能模型的基准,这些模型使用更少的能量来解决给定的任务,但表现水平大致相同。研究表明,通过选择其他类型的模型或通过调整模型,在训练和部署阶段可以节省70-80%的能源,而性能仅下降1%或更少。据研究人员称,这是一个保守的估计。

“将我们的结果视为人工智能专业人士的一本食谱。这些食谱不仅描述了不同算法的性能,还描述了它们的能源效率。通过在模型设计中将一种成分与另一种成分交换,人们可以“通常会达到相同的结果。因此,现在,从业者可以根据性能和能耗来选择他们想要的模型,而无需先训练每个模型,”PedramBakhtiarifard说。

“通常情况下,在找到被认为最适合解决特定任务的模型之前,需要对许多模型进行训练。这使得人工智能的开发极其耗能。因此,选择正确的模型对气候更加友好从一开始就选择一个在训练阶段不会消耗太多电量的系统。”

研究人员强调,在某些领域,例如自动驾驶汽车或某些医学领域,模型精度对于安全至关重要。在这里,重要的是不要在性能上妥协。然而,这不应成为其他领域追求高能源效率的阻碍。

“人工智能具有惊人的潜力。但如果我们要确保可持续和负责任的人工智能发展,我们需要一种更全面的方法,不仅要考虑到模型性能,还要考虑到气候影响。在这里,我们表明有可能找到更好的方法当为不同的任务开发人工智能模型时,能源效率应该是一个固定的标准——就像许多其他行业的标准一样,”RaghavendraSelvan总结道。

这项工作中汇总的“食谱书”可作为开源数据集供其他研究人员进行实验。所有这400,000多个架构的信息都发布在Github上,人工智能从业者可以使用简单的Python脚本访问这些信息。

UCPH研究人员估计了在该数据集中训练429,000个称为卷积神经网络的AI子类型模型需要多少能量。除此之外,它们还用于对象检测、语言翻译和医学图像分析。

据估计,仅训练该研究所关注的429,000个神经网络就需要263,000千瓦时。这相当于丹麦公民平均46年消耗的能源量。一台计算机需要大约100年才能完成训练。这项工作的作者实际上并没有自己训练这些模型,而是使用另一个人工智能模型来估计这些模型,从而节省了99%的能源。

为什么人工智能的碳足迹如此之大?

训练人工智能模型会消耗大量能源,从而排放大量CO2e。这是由于训练模型时执行的密集计算,通常在功能强大的计算机上运行。

对于大型模型尤其如此,例如ChatGPT背后的语言模型。人工智能任务通常在数据中心处理,需要大量电力来保持计算机运行和冷却。这些中心的能源可能依赖化石燃料,从而影响其碳足迹。

免责声明:本文由用户上传,如有侵权请联系删除!