首页 > 新闻资讯内容详情

一个能沉默OpenAI的问题:人工智能究竟有多耗能? 2024-02-22 11:23:00

  【CNMO科技】众所周知,机器学习消耗大量的能量。所有这些能够制作视频的人工智能模型都在消耗每小时兆瓦数的电量。但似乎没有人——甚至是开发这项技术的公司——能确切地说出本钱是多少。

  有专家表示,这些数字只是人工智能总消耗量的一小部分。这是由于机器学习模型是非常可变的,能够以极大地改变其功耗的方式进行配置。此外,Meta、微软和OpenAI等公司根本不愿分享相关信息。

一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  练习大模型需要大量的能源,比传统的数据中心活动消耗更多的电力。例如,练习像GPT-3这样的大型语言模型,估计要使用不到1300兆瓦时(MWh)的电力;大约相当于130个美国家庭每年消耗的电量。相比之下,流媒体一小时需要大约0.8千瓦时(0.0008兆瓦时)的电力。这意味着你必须观看162.5万小时才能消耗与练习GPT-3相同的能量。

  但很难说这样的数字如何适用于当前最先进的系统。能源消耗可能会更大,由于人工智能模型的规模多年来一直在稳步上升,而更大的模型需要更多的能源。另一方面,公司可能会使用一些经过验证的方法使这些系统更节能,这将抑制能源本钱的上升趋势。

人工智能不是免费的

  人工智能公司hug Face的研究员Sasha Luccioni表示,随着人工智能变得有利可图,很多公司变得更加保密。回到几年前,像OpenAI这样的公司会公布他们练习制度的细节——什么硬件,多长时间。但Luccioni说,ChatGPT和GPT-4等最新型号根本不存在同样的信息。

  Luccioni以为这种保密部分是由于公司之间的竞争,另一部分是为了转移批评。人工智能的能源使用统计数据——尤其是它最无聊的用例——自然会让人把它与加密货币的浪费进行比较。“人们越来越意识到,所有这些都不是免费的,”她说。

一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  往年12月,Luccioni和同事尝试对各种人工智能模型的推理能耗做出评估。他们在88个不同的模型上进行了测试,涵盖了一系列用例,从回答题目到识别物体和天生图像。在每种情况下,他们都运行了1000次任务,并估计了能量消耗。他们测试的大多数任务使用少量的能量,比如0.002千瓦时用于分类书面样本,0.047千瓦时用于天生文本。

  假如我们用我们在Netflix上观看一个小时的流媒体作为比较,它们分别相当于观看9秒或3.5分钟所消耗的能量。图像天生模型的数据明显更大,每1000个推论均匀使用2.907千瓦时。智能手机的均匀充电消耗0.012千瓦时,因此使用人工智能天生一张图像所消耗的能量几乎与给智能手机充电所消耗的能量一样多。

  Luccioni和她的同事测试了十种不同的系统,从天生64 x 64像素的微型图像的小型模型到天生4K图像的大型模型。研究职员还对所使用的硬件进行了标准化,以便更好地比较不同的人工智能模型。但实际上,软件和硬件通常都是针对能源效率进行优化的。

  Luccioni说:“这当然不能代表每个人的用例,但现在至少我们有了一些数字。”

天生式人工智能革命的全球本钱

  这项研究提供了有用的相对数据,尽管不是尽对数字。它表明,人工智能模型在天生输出时需要比对输进进行分类时更多的功率。它还说明,任何涉及图像的东西都比文本更耗能。Luccioni说,尽管这些数据的偶然性可能令人失看,但这本身就说明了一个题目。

  她说:“人工智能革命带来的全球本钱是我们完全不知道的,对我来说,这种蔓延尤其具有指示性。”“真正的原因是我们不知道。”

  假如我们想更好地了解地球的本钱,还有其他方法可以采取。假如我们不是专注于模型推理,而是缩小范围呢?

一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  这是阿姆斯特丹自由大学(VU Amsterdam)的博士候选人亚历克斯·德弗里斯(Alex de Vries)的方法,他在自己的博客Digiconomist上开始计算比特币的能源消耗,并使用Nvidia gpu(人工智能硬件的黄金标准)来估计该行业的全球能源使用情况。正如德弗里斯往年在《焦耳》(Joule)杂志上发表的评论中所解释的那样,英伟达占据了人工智能市场大约95%的销售额。

  该公司还发布了硬件的能源规格和销售猜测,综合这些数据,德弗里斯计算出,到2027年,人工智能行业每年可能消耗85至134太瓦时,这与荷兰每年的能源需求大致相同。

  德弗里斯说,“到2027年,人工智能的用电量可能占全球用电量的0.5%。”这是一个相当重要的数字。

  国际能源署最近的一份报告也提供了类似的估计,表明由于人工智能和加密货币的需求,数据中心的用电量将在不久的将来大幅增加。该机构表示,目前数据中心的能源使用量在2022年约为460太瓦时,到2026年可能会增加到620至1050太瓦时,分别相当于瑞典或德国的能源需求。

  但德弗里斯说,把这些数字放在背景中是很重要的。他指出,在2010年至2018年期间,数据中心的能源使用量相当稳定,约占全球能耗的1%至2%。德弗里斯说,在这段时间里,需求肯定是上升的,但硬件的效率进步了,从而抵消了需求的增长。

大模型越做越大

  他担心的是,人工智能的情况可能会有所不同,由于企业倾向于在任何任务中简单地投进更大的模型和更多的数据。一旦模型或硬件变得更高效,它们就会把这些模型做得更大。

  效率的进步能否抵消不中断增长的需求和使用量,这个题目是无法回答的。和卢奇奥尼一样,德弗里斯对缺乏可用数据表示遗憾。

一个能沉默OpenAI的问题:人工智能究竟有多耗能?

  一些搞人工智能的公司声称,技术可以帮助解决这些题目。普里斯特代表微软表示,人工智能“将成为推进可持续发展解决方案的有力工具”,并夸大微软正在努力实现“到2030年实现碳负、水正和零浪费的可持续发展目标”。

  但一家公司的目标永远不可能涵盖整个行业的全部需求。可能需要其他方法。

  Luccioni说,她希看看到公司为人工智能模型引进能源之星评级,让消费者可以像比较电器一样比较能源效率。对于德弗里斯来说,我们的方法应该更基本:我们是否需要用人工智能来完成特定的任务?他说:“由于考虑到人工智能的局限性,它可能在很多地方都不是正确的解决方案,我们将浪费大量的时间和资源来找出这个困难的方法。”

相关标签: 人工智能 大模型

发布评论