随着ChatGPT引发新一轮人工智能(AI)热潮,而其背后带来的能耗问题也持续引发关注。
今年4月10日,芯片巨头 Arm公司CEO哈斯(Rene Haas)公开表示,包括ChatGPT在内的 AI 大模型需要大量算力,预计到2030年,AI 数据中心将消耗美国20%至25%的电力需求,相比今天的4%大幅增加。
公开数据显示,目前,ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时。一年时间,ChatGPT光电费就要花2亿元人民币。
这意味着,ChatGPT日耗电量是普通家庭的1.7万倍以上。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元)
据荷兰咨询机构负责人Alex de Vries预计,到2027年,AI 行业每年将消耗850亿~1340亿千瓦时的电力,相当于瑞典或荷兰一个欧洲国家一年的总用电量。
马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看到,我们没有足够电力来运行所有的芯片”。
OpenAI CEO奥尔特曼()也预计,AI 行业正在走向能源危机,未来 AI 技术发展将高度依赖于能源,人们也需要更多的光伏和储能产品。
这一切都显示出,AI 即将引爆全球新一轮“能源战争”。
AI不仅是“耗电狂魔”,更是“吞水巨兽”。
其中,在电力方面,除了上述信息外,据国际能源署(IEA)数据显示,2022年,全球数据中心消耗约460太瓦时的电量(相当于全球总需求的2%),随着飞速发展,这一数字到2026年可能膨胀至620至1050太瓦时。
Alex de Vries预计,到2027年,AI服务器所消耗的用电量将等同于荷兰全国的能源需求量。最坏的情况就是,仅谷歌一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。
IBM高级副总裁达里奥·吉尔曾表示,“AI能耗”是非常重要的挑战。生成式 AI 的高性能服务器的持续运行,将导致数据中心一半以上的电力消耗都被AI占据。据悉,预计到2025年,AI 业务在全球数据中心用电量中的占比将从2%猛增到10%。
那么,水能呢?大模型背后需要数据中心、云基础设施的支持,那就需要大量的“”进行散热。
得克萨斯大学的一份研究指出,作为ChatGPT背后的重要支持力量,微软的Microsoft Azure云数据中心光是训练GPT-3,15天就用掉将近70万升的水,相当于每天花销约50000L水。
同时,ChatGPT每回答50个问题就要消耗500毫升水。公开信息称,2022年微软用水量达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。
美国加州大学河滨分校副教授任绍磊团队预计,到2027年,全球AI可能需要4.2-66亿立方米的清洁淡水量,这比4-6个丹麦、或二分之一的英国的一年取水总量还要多。
除了数据中心,内置的GPU芯片也是能源消耗的重点领域之一。今年3月,英伟达发布史上性能最强AI芯片——Blackwell GB200,宣称是A100/H100系列AI GPU的继任者,性能相比H100提升30倍,但能耗却降低了25倍。
上个月,黄仁勋的一句“AI的尽头是光伏和储能”更是在网络疯传。尽管有网友扒出原视频称,黄仁勋本人并未说过这句话,更没有提及“光伏和能源”,但 AI 能耗严重,却是摆在公众面前的事实。
国际能源机构(IEA)在一份报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大模型所需的电力,远高于谷歌等传统搜索引擎。
不过,值得注意的是,由于科技巨头们并未正式披露过 AI 使用中的电力消耗数据,因此,目前关于 AI 耗电量的数据多为估算,并不一定是非常准确的数据。美国信息技术与创新基金会(ITIF)曾指出,个别不准确的研究高估了AI能耗。AI训练是一次性事件,它的使用是长期过程。人们应关注 AI 能耗的长期影响,并非爆发式增长。
金沙江创投主管合伙人朱啸虎近日也表示,可控核聚变实现前,我们并没有足够的算力实现真正的AGI。帮人类降低90%的工作可能未来3到5年可以实现,但最后的10%可能需要大量的算力和能耗。
有专家认为,目前大模型训练成本中60%是电费,能源开支已经严重制约着大模型的迭代升级。