“大口吃电”的人工智能

车市睿见
关注

众所周知,机器学习需要消耗大量的能源。算力是人工智能世界发展的基础,而算力的瓶颈归根到底是电力,那些训练聊天机器人、为文本生成视频提供动力的人工智能模型,几乎以每小时兆瓦为单位,产生巨额的服务器用电账单。

Digital Information World发布的报告显示,数据中心为训练AI模型产生的能耗是常规云工作的三倍,预计到2030年,美国数据中心的电力需求将以每年约10%的速度增长。

而训练模型,将比传统数据中心活动消耗更多电力,对电力的需求更高。以训练GPT-3大型语言模型为例,需消耗接近1,300兆瓦时的电力,这大约相当于130个美国家庭1年的用电量,而这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。

据报道,2023年1月,OpenAI仅一个月已耗用可能等同17.5万个丹麦家庭的全年用电量。谷歌AI每年耗电量达2.3太瓦时,相当于美国亚特兰大州所有家庭1年的用电量。

阿姆斯特丹自由大学博士生Alex de Vries推算认为,到2027年,人工智能行业每年的电量消耗可能在85到134太瓦时之间。这几乎相当于荷兰一个国家年度电力需求,这是个相当可观的数字。

国际能源署(IEA)最近的一份报告也给出了类似的结论,指出由于人工智能和加密货币的需求,数据中心的用电量将在不久的将来大幅增加。该机构表示,2022年数据中心的能源使用量约为460太瓦时,到2026年可能会增加到620至1,050太瓦时之间,分别相当于瑞典或德国的能源需求。

随着人工智能产业的发展,电力消耗可能会更大。同时,随着人工智能的盈利,其研发公司对大模型训练的细节信息——什么样的硬件,运行多长时间等,越发保密。

人工智能公司Hugging Face的研究员Sasha Luccioni表示,对于ChatGPT,我们不知道它有多大,不知道基础模型有多少参数,也不知道它在哪里运行......研发公司的保密行为可能出于行业竞争考虑,也可能是为了转移公众的“批评”。

一些参与人工智能的公司声称,人工智能技术本身可以帮助解决高电耗问题。代表Microsoft的发言人表示,人工智能“将成为推进可持续发展解决方案的有力工具”,并强调Microsoft正在努力实现“到2030年实现负碳、正水和零浪费的可持续发展目标”。

但是一家公司的目标无法涵盖整个行业的全部需求,可能还需要其他方法。Luccioni建议行业为AI模型引入能源之星评级,使消费者能够像比较电器一样比较人工智能的能源效率。

人工智能带来的种种创新功能,都是以处理性能和功耗方面的高昂成本为代价,它并不是免费的。

编辑丨杨   朔

排版丨郑 莉

来源丨The Verge

图片来源丨千图网

       原文标题 : “大口吃电”的人工智能

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存