“算电协同”这个词听上去有些专业,但它所对应的问题其实越来越现实:在AI带动算力需求快速攀升的背景下,数据中心如何不再只是单向耗电,而是能够根据电力供需变化更灵活地运行,正成为基础设施建设中的新课题。从“东数西算”到“算电协同”,一个更直接的问题也随之摆在面前:当AI把数据中心推向新一轮扩张,电网准备好了吗?
最近,芝加哥大学计算机科学教授Andrew Chien在一期播客中把这个问题挑得很明白:AI带来的数据中心扩张,确实正在把电力系统、环境容量和社区承载力一起推到聚光灯下。他指出,计算相关用电到2030年可能占到美国总发电量的8%至10%,而更值得担心的是,这种增长不会在2030年自动停下,到了2035年甚至可能升至20%或25%。在他看来,人们“应该感到警觉”,因为这已经不是单个科技公司的成本问题,而是整个社会都要面对的基础设施问题。

为什么AI比过去的互联网服务更“费电”?Chien给出的解释很直接:传统程序是按代码执行任务,而大模型依赖的是拥有海量参数的机器学习系统,每一次响应都要进行巨量概率计算。也就是说,用户看似只是发出一个问题,背后却是庞大的算力和电力在持续运转。过去十多年,全球一直在努力降低碳排放、提升能效,但他认为,AI突然加速的用电增长,正在“远远超过我们取得进展的速度”,使得计算活动造成的环境压力重新抬头。
不过,Chien并不认为答案是给AI踩刹车。他用了一个很形象的说法:“这匹马已经跑出马厩。”换句话说,更多数据中心、更多算力需求,大概率已是不可逆趋势。真正的问题不是“要不要发展”,而是“怎么发展”。在他看来,如果电网系统什么都不做,风险当然存在;但从技术上说,无论是增加输电、增加发电,还是优化调度,其实都不是无解。难点不在技术本身,而在监管审批、建设速度和制度协同是否跟得上AI扩张的节奏。
这也正是“算电协同”被反复讨论的原因。它的核心,不只是给数据中心找更多电,而是让算力和电力不再各跑各的。未来的方向,包括推动非实时任务更多向清洁能源富集地区转移,探索逐时匹配、碳感知调度等机制,本质上都是让算力更聪明地用电、错峰用电、追着绿电跑。某种程度上,这与Chien提出的思路高度一致:未来的数据中心不只是电网的负担,也可以成为更灵活的用能主体。
Chien还提醒,数据中心的压力不只体现在“耗电”上,也体现在“耗水”上。许多数据中心过去采用蒸发冷却,因为那是最便宜的方案,但代价是消耗大量水资源;而如果改用更传统的机械制冷,又会进一步增加用电负担。再加上选址、社区接受度、碳排放等因素,数据中心扩张从来不是简单盖一栋楼、装一批服务器那么简单。AI时代真正的竞争,越来越像是一场围绕电力系统、能源结构和公共治理能力展开的竞赛。
从这个角度再看“算电协同”,它就不仅是一个技术概念,更像是AI基础设施进入深水区后的一个现实回答:既然算力会持续增长,那就必须让它学会尊重电网、尊重能源约束、尊重环境边界。数据中心未必会“压垮”电网,但如果算力增长继续脱离电力协同、绿电配置和制度建设,这种压力迟早会传导到更广泛的社会成本之中。
(本文来源:日照新闻网。本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。对文章事实有疑问,请与有关方核实或与本网联系。文章观点非本网观点,仅供读者参考。)
“算电协同”这个词听上去有些专业,但它所对应的问题其实越来越现实:在AI带动算力需求快速攀升的背景下,数据中心如何不再只是单向耗电,而是能够根据电力供需变化更灵活地运行,正成为基础设施建设中的新课题。从“东数西算”到“算电协同”,一个更直接的问题也随之摆在面前:当AI把数据中心推向新一轮扩张,电网准备好了吗?
最近,芝加哥大学计算机科学教授Andrew Chien在一期播客中把这个问题挑得很明白:AI带来的数据中心扩张,确实正在把电力系统、环境容量和社区承载力一起推到聚光灯下。他指出,计算相关用电到2030年可能占到美国总发电量的8%至10%,而更值得担心的是,这种增长不会在2030年自动停下,到了2035年甚至可能升至20%或25%。在他看来,人们“应该感到警觉”,因为这已经不是单个科技公司的成本问题,而是整个社会都要面对的基础设施问题。

为什么AI比过去的互联网服务更“费电”?Chien给出的解释很直接:传统程序是按代码执行任务,而大模型依赖的是拥有海量参数的机器学习系统,每一次响应都要进行巨量概率计算。也就是说,用户看似只是发出一个问题,背后却是庞大的算力和电力在持续运转。过去十多年,全球一直在努力降低碳排放、提升能效,但他认为,AI突然加速的用电增长,正在“远远超过我们取得进展的速度”,使得计算活动造成的环境压力重新抬头。
不过,Chien并不认为答案是给AI踩刹车。他用了一个很形象的说法:“这匹马已经跑出马厩。”换句话说,更多数据中心、更多算力需求,大概率已是不可逆趋势。真正的问题不是“要不要发展”,而是“怎么发展”。在他看来,如果电网系统什么都不做,风险当然存在;但从技术上说,无论是增加输电、增加发电,还是优化调度,其实都不是无解。难点不在技术本身,而在监管审批、建设速度和制度协同是否跟得上AI扩张的节奏。
这也正是“算电协同”被反复讨论的原因。它的核心,不只是给数据中心找更多电,而是让算力和电力不再各跑各的。未来的方向,包括推动非实时任务更多向清洁能源富集地区转移,探索逐时匹配、碳感知调度等机制,本质上都是让算力更聪明地用电、错峰用电、追着绿电跑。某种程度上,这与Chien提出的思路高度一致:未来的数据中心不只是电网的负担,也可以成为更灵活的用能主体。
Chien还提醒,数据中心的压力不只体现在“耗电”上,也体现在“耗水”上。许多数据中心过去采用蒸发冷却,因为那是最便宜的方案,但代价是消耗大量水资源;而如果改用更传统的机械制冷,又会进一步增加用电负担。再加上选址、社区接受度、碳排放等因素,数据中心扩张从来不是简单盖一栋楼、装一批服务器那么简单。AI时代真正的竞争,越来越像是一场围绕电力系统、能源结构和公共治理能力展开的竞赛。
从这个角度再看“算电协同”,它就不仅是一个技术概念,更像是AI基础设施进入深水区后的一个现实回答:既然算力会持续增长,那就必须让它学会尊重电网、尊重能源约束、尊重环境边界。数据中心未必会“压垮”电网,但如果算力增长继续脱离电力协同、绿电配置和制度建设,这种压力迟早会传导到更广泛的社会成本之中。
(本文来源:日照新闻网。本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。对文章事实有疑问,请与有关方核实或与本网联系。文章观点非本网观点,仅供读者参考。)