ChatGPT耗电超恐怖,每天用电超过50万度、为美国一般家庭用电1.7万多倍

但如果生成式人工智慧被进一步采用,耗电量可能会更多。

据《纽约客》杂志报导,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应使用者的大约2亿个请求。相比之下,美国家庭平均每天使用约29千瓦时的电力。将ChatGPT每天的用电量除以普通家庭的用电量,可以发现ChatGPT每天的用电量是家庭用电量的1.7万多倍。

听起来很多,但如果生成式人工智慧被进一步采用,耗电量可能会更多。

使用GPT会「很渴」

其实AI所耗用的电量,与AI「在哪里」训练也有相当的关系。

先前加州大学河滨分校电机与电脑工程系副教授Shaolei Ren曾在他的论文《让人工智能不那么“渴”:揭示并解决人工智能模型的秘密水足迹》指出,如果GPT-3是在微软最先进的美国资料中心训练GPT-3时,将直接消耗70万公升的干净淡水,但如果换到微软的亚洲资料中心训练,用水量将涨到3倍。

微软的资料中心已经是相当先进了,而如果是其它较小规模的企业资料中心来训练AI的话,耗用的只有更多的可能。

由此来计算,ChatGPT回答20~50个问题,需要500ml的水。而这还仅是GPT-3的运算消耗。

因此,Shaolei Ren在他的论文指出,使用AI模型将会「很渴」。

AI生成融入搜寻,威力无穷但耗电也无穷

如果考虑到把AI融入其它应用,那算法就更复杂了。

例如,根据荷兰国家银行(Dutch National Bank)资料科学家亚历克斯·德弗里斯(Alex de Vries)在可持续能源期刊《焦耳》(Joule)上发表的一篇论文中的计算,如果Google将生成式AI技术整合到每次搜寻中,它每年将消耗约290亿千瓦时的电量。据《纽约客》报导,这比肯亚、瓜地马拉和克罗埃西亚等国一年的用电量还要多。

「人工智慧是非常耗能的,」德弗里斯说,「每个人工智慧伺服器的耗电量已经相当于十几个英国家庭的总和。所以这些数字很快就会增加。」

然而,估计蓬勃发展的人工智慧行业消耗多少电力是很难确定的。据the Verge报导,大型人工智慧模型的运行方式存在相当大的差异,而推动人工智慧繁荣的大型科技公司并没有完全公开他们的能源使用情况。

然而,在他的论文中,德弗里斯提出了一个基于NVIDIA公布的资料的粗略计算。这家晶片制造商占据了图形处理器市场约95%的市占率。

德弗里斯在论文中估计,到2027年,整个人工智慧行业每年将消耗85至134太瓦时(1太瓦时相当于10亿千瓦时)。

「到2027年,人工智慧的用电量可能占全球用电量的0.5%,」德弗里斯说,「我认为这是一个相当重要的数字。」

事实上,AI的能源足迹并不会随着训练而结束。德弗里斯的分析表明,当该工具投入工作(根据提示生成资料)时,每次该工具生成文字或图像后,它也会使用大量的计算能力,从而消耗大量的能源。例如,ChatGPT 每天的运行费用可能为564 MWh。

Google已经将生成式人工智慧纳入公司的电子邮件服务中,并正在测试利用人工智慧为其搜寻引擎提供动力。目前该公司每天处理多达90 亿次搜寻。根据资料,德弗里斯估计,如果Google每次搜寻都使用人工智慧,每年大约需要29.2 TWh 的电力,相当于爱尔兰一年的用电量。

加入T客邦Facebook粉丝团
1711313725
#ChatGPT耗电超恐怖每天用电超过50万度为美国一般家庭用电1.7万多倍
2024-03-24 08:00:00

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​