“千万不要跟 AI 说谢谢” 这一说法源于 OpenAI CEO 山姆・奥特曼今年 4 月在推特上的一条回复,他称每跟 AI 说一次谢谢,都有可能让他们花掉数千万美元的电费。这一观点主要反映了 AI 运行背后的高能耗问题。
AI 的能耗问题一直是各个 AI 公司避而不谈的秘密。据荷兰数字经济学家的研究,ChatGPT 的每一次回答平均耗电约 2.9 瓦时,以其每天大约处理 2 亿个请求计算,每天要消耗约 56.4 万度电。而谷歌在 8 月 21 日公布的研究报告显示,其自家的 AI 产品 Jimmy 单次查询仅消耗 0.24 瓦时,若按照外界的保守方法来计算,Jimmy 的单次查询能耗甚至只有 0.1 瓦时。不过,即使单次响应能耗很低,但由于 AI 的请求总量巨大,如谷歌搜索每天要处理高达一百三十亿到一百四十亿次请求,即使只有 10% 触发了由 Jimmy 驱动的 AI 功能,这个数字也远超 10 亿,是 ChatGPT 日请求量的 5 倍还多,所以从宏观视角看,AI 仍是能源消耗大户。
此外,训练模型的过程对能源的消耗更为夸张,如 GPT-4 一次训练的耗电量能把约 1000 个标准游泳池的水加热到沸腾。随着大模型的参数量以及训练芯片的数量性能的激增,AI 的能耗数字还在不断增长。
文章版权声明:除非注明,否则均为刘波博客原创文章,转载或复制请以超链接形式并注明出处。
还没有评论,来说两句吧...