AI人工智能“吃电”话题再上热搜 与新能源绑定成最优解
- 2024-03-15 09:03:13388
#ChatGPT日耗电超50万度#上热搜,AI人工智能以及大模型高耗能这个事儿又开说。
据外媒报道,爆火的聊天机器人ChatGPT“每天可能要消耗超过50万千瓦时的电力,以响应用户约2亿个请求”。什么概念呢?就是ChatGPT每天的用电量差不多等同于美国家庭用电量的1.7万倍。
当然,这已经不是第一次提到AI人工智能以及大模型“吃电”这个事情了。AI和大模型的基础都是算力,算力的每一次提升都意味着呈几何数的能耗提升,不仅是ChatGPT以及其代表的OpenAI,微软、苹果、谷歌、百度、华为、科大讯飞、阿里、腾讯、京东等等企业都无法回避这个问题。
美国信息技术与创新基金会(ITIF)发布的报告《重新审视对人工智能能耗的担忧》中就指出,不同的AI模型也有不同的能耗成本,在特定模型中,参数数量越多,使用AI模型所需的能耗通常越高。同时,AI能耗受到经济因素限制,性能改进速度将随时间下降。
报告还提到,已有一些研究试图量化AI系统当前和未来的能源需求和碳排放,不过一些初步估算陷入了与早期估算数字技术能源使用相同的陷阱,产生了误导性估算。
对AI人工智能以及大模型能耗和碳排放的测算是一项复杂且庞大的工程,并受到很多因素的影响,不过可以确认的一点是,其能耗大是事实。
斯坦福大学人工智能技术研究室(HAI)公布的《2023年人工智能指数报告》中明确指出,GPT-3是当前大模型中有据可依的第一大“电老虎”,光是训练GPT-3,就消耗了128.7万千瓦时电量,产生了550吨碳排放,相当于数百辆汽车一整年的排放量。
高耗能、高排放是行业特性,但是用什么能源可以选择,还可以在制冷系统上下功夫。
绿电+储能是目前科技公司以及AI公司的常规选择,或者也可以说是必然选择。6部门联合发布的《算力基础设施高质量发展行动计划》就提出“算力+能源”的组合,要求实现源网荷互动、多能协同互补及用能需求智能调控。
计划指出,随着人工智能的普及应用以及算法模型参数量和复杂度不断提升,数据中心数据吞吐量、计算量不断增长,用能需求也随之增长。未来,推动“算力+能源”融合发展重在“融合”,推动各类能源互联互通、互济互动,支撑新能源发电、新型储能、多元化负荷大规模友好接入,提升分布式能源和微电网接入互动能力。
而除了信息设备,制冷系统的能耗在数据中心里算得上数一数二的了。目前,传统风冷技术面对AI大模型这种高算力的制冷需求显然已经不够看了,所以液冷技术开始盛行,即通过特殊液体循环散热方式,实现更精准、更高效节能的散热。去年,我国规模最大的液冷数据中心全链条产业创新基地落户青岛,占整个数据能效10%以内的系统,实现30%以上的能效节约。
当然,也不能光看AI人工智能和大模型“吃电”的弊端,作为当前无可指摘的尖端技术,其助力提质增效以及节能减排的作用是巨大的,并且是辐射所有工业生产和日常生活的,比如现下时兴的绿色工厂打造,AI和新能源的地位属于“左膀右臂”,《工业绿色发展白皮书》中就提到,智能制造示范工厂的生产效率提升了34.8%,碳排放则降低21.2%。
所以未来,AI也好,大模型也好,与清洁能源、可再生能源的融合发展是必经之路,双向成就,协同助力工业绿色转型,加快塑造低碳供应链闭环。可以预见,两者之间的联系会愈加紧密,推动经济高质量向前。