GPT成为耗电狂魔,一年电费2亿元?

根新未来
关注

/陈根

311日,《纽约客》发布的一篇文章引起了广泛关注。根据文章报道,ChatGPT每天大约要处理2亿个用户请求,每天消耗电力50万千瓦时,相当于美国家庭每天平均用电量(29千瓦时)的1.7万多倍。

也就是说,ChatGPT一天的耗电量,大概等于1.7万个家庭一天的耗电量,ChatGPT一年,光是电费,就要花2亿元。

《纽约客》还在文章中提到,根据荷兰国家银行数据科学家Alex de Vries的估算,预计到2027年,整个人工智能行业每年将消耗85134太瓦时的电力(1太瓦时=10亿千瓦时)。这个电量相当于肯尼亚、危地马拉和克罗地亚三国的年总发电量。《纽约客》的消息一出,直接冲上了微博热搜。

事实上,在这之前,关于AI耗电的讨论就已经有很多了,不管是研究报告还是调查数据,都显示人工智能已经成为了耗电大户,并且,随着人工智能的发展,耗电量还会越来越大。

科罗拉多大学与德克萨斯大学的研究人员在一篇名为“让AI更节水”的预印论文中也发布了训练AI的用水估算结果,显示训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量。并且在使用过程中,ChatGPT(在GPT-3推出之后)每与用户交流2550个问题,就得“喝下”一瓶500毫升的水来降温。

人工智能为啥这么耗电?这其实和人工智能的工作原理有关。人工智能工作原理的核心,就是计算。而本质上,计算就是把数据从无序变成有序的过程,这个过程则需要一定能量的输入。特别是为了处理海量的数据和复杂的计算任务,人工智能系统需要强大的计算能力和存储设备,而这些设备在运行过程中会产生大量的热量和能耗。

并且,随着人工智能技术的不断发展,对芯片的需求也在急剧增加,进一步推动了电力需求的增长。

可以很明确的说,人工智能如果想进一步发展和突破,或者说人工智能如果要真正地进入人类社会中应用,必须要解决耗能问题。

如果依然是遵照传统路径,继续购买算力来扩增人工智能的计算能力,那么人工智能将会对电力的需求形成一个无底洞。对于AI耗能的问题,奥特曼也曾警告说,下一波生成型人工智能系统消耗的电力将远远超出预期,能源系统将难以应对。马斯克也多次表达了对未来能源基础设施,尤其是电力和变压器短缺将成为AI技术突破运行的瓶颈,而这种电力短缺最早可能在2025年就会出现。

而解决耗能问题的关键,就在于发展新的能源技术,比如可控核聚变,或者更便宜的太阳能及存储等等。说到底,科技带来的能源资源消耗问题,依然只能从技术层面来根本性地解决。

当然这也让我们看到为什么奥特曼在打造通用人工智能的道理上,也提前投资了可控核聚变公司的初衷。曾经的赶英超美,今天回头看我们是最大的粮食进口大国;如今国内一些人工智能企业喊出的赶超OpenAI,过几年回头看,大家觉得会是一个什么结果?

       原文标题 : 陈根:GPT成为耗电狂魔,一年电费2亿元?

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存