一家全球化互联网科技企业每年到底会消耗多少电力?数字可能会让你震惊。最新统计显示,2023年谷歌、微软各自消费电力25TWh(250亿千瓦时)。在全球共197个国家中,谷歌微软各自消耗的电量比其中的100多个国家还要多。
谷歌、微软消耗的电量大约和埃塞俄比亚相当,该国的GPD约为787亿美元。2023年谷歌营收约为3074亿美元,微软为2119亿美元。
冰岛、加纳、多米尼加共和国和突尼斯每年消耗的电量约为19TWh,约旦为20TWh,利比亚为25TWh,斯洛伐克约为26TWh,它们消耗的电力与谷歌、微软相差无几。
我们也可以将谷歌、微软的用电量和爱尔兰对比。爱尔兰人口527万,2022年GDP约为4750亿欧元,年发电量约为280亿千瓦时(28TWh),平均每户家庭用电4200千瓦时。
AI进一步推高科技巨头的耗电量
面对如此巨大的电力需求,谷歌微软不得不考虑环境问题,它们已经制定了碳排放削减目标,承诺将会采购更多清洁电力。
目前谷歌的市值约为2.294万亿美元,微软为3.372万亿美元,分别排名全球第三位和第四位,我们用“富可敌国”来形容谷歌、微软一点也不夸张。
如果美国科技公司全面拥抱AI,未来消耗的电力还会增加。有数据称,谷歌AI目前已经消耗大量电力,每秒的消耗量可以充满7辆电动汽车。2023年谷歌的碳排放量已经比2019年高出50%,碳排放之所以增加,主要是受到AI的刺激,数据中心消耗的电力增加。
和运行特定任务的计算机相比,生成式AI系统(比如ChatGPT)消耗的电力高出33%。每秒钟谷歌执行搜索98379次,如果搜索全部由AI生成,相当于消耗295.14千瓦时电力,这些电力可以充满7辆电动汽车。另有报告认为,每次ChatGPT查询耗电2.9度,相当于谷歌传统搜索查询的10倍。
谷歌原本希望在2030年前实现零排放,但最新报告证明,想达成目标极为困难,因为AI的耗电量极为惊人,超出了常识。
美国华盛顿大学计算机工程研究员Sajjad Moazeni说:“在后端,生成式模型运行时会用到算法,而算法的运行与传统谷歌搜索、邮箱的运行机制完全不同。AI提供服务时需要处理大量数据,数据在处理器之间来回传输,传统方式处理的数据量小很多。”如果是生成式AI应用,处理的数据量比传统方式多100甚至1000倍。
电力网跟不上数据中心增长速度
科技企业正在拼命建设数据中心,一般来说,建设完一座数据中心需要1-2年,而增加新电力网可能要4年。在美国,80%的数据中心安置在15个州,比如弗吉尼亚。有些州给数据中心分配的电力已经占到全州电力的25%,比例非常之高。
芝加哥大哥网络系统研究人员Junchen Jiang说:“碳足迹、能源消耗和计算的关系是线性关系,因为数据中心消耗的能量和计算量成正比。”AI模型越大,需要的计算量越多。
当然,我们也不必夸大科技企业电力消耗问题,虽然数据中心耗电量正在增加,但在整个人类消耗的电力中仍然只占相当微小的一部分,炼油厂、建筑、交通运输产业消耗的电力比AI数据中心多很多。
专家认为,到2027年AI用电量将会占到全球电力的0.5%,相当于阿根廷一年的用电量。富国银行分析师认为,受到AI的驱动,2030年之前美国电力需求将会增加20%。高盛则认为,2030年数据中心用电量将会占到美国电力总量的8%,今天只有3%。
如何减少用电量?可以开发更节能的AI硬件,开发更小的AI模型,但这些措施只能治标,不能治本。如果想彻底解决电力问题,还要是发更多电,要好好利用现有电网。
未来有一天也许AI会给企业创造巨额利润,也有可能诱发技术突破,减轻排放问题,但至少就眼下来看,AI数据中心给气候带来的危害远大于收益。