随着AI技术的广泛应用,其对能源的需求不断增加,给数据中心的能源使用带来了压力,同时也引发了人们对它消耗了多少能源的质疑。生成式人工智能模型中的单个查询可能会消耗相当于打开灯泡一小时的能量。大型科技公司现在表示,他们可能很难实现气候目标,因为人工智能的使用导致了能源需求的增加(https://apnews.com/article/climate-google-environmental-report-greenhouse-gases-emissions-3ccf95b9125831d66e676e811ece8a18)。
人工智能能否更具可持续性?
越来越多的专家希望答案是:“是的”。
根据国际能源署的数据(https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks#overview),数据中心已经占全球用电量的1-1.5%,人工智能的繁荣引发了超大规模用户的支出激增,这可能会在未来几年进一步推动这一数字的增长。该组织预测,到2026年,全球数据中心的总用电量可能会翻一番以上,仅靠可再生能源无法满足这一需求。
“大规模人工智能才刚刚开始,”IEEE高级会员Euclides Chuma说,“研究人员正在探索硬件和软件解决方案,以降低人工智能的能耗,同时使其更强大。”
为什么AI会消耗这么多能量?
回答一个看似简单的问题并不简单。人工智能一词有很多不同的含义,人工智能有很多种。
一方面,有一些人工智能系统已经使用了多年,例如,这种系统可以分析你在电子商务网站上的购物行为并推荐产品。然后是更新的生成式人工智能系统,只需几次按键即可创建书面和视觉内容。
购物算法在预测你可能想买什么样的t恤时通常消耗很少的能量。生成式人工智能系统使用更多,而且有很多人在使用它们。根据对六个高度发达国家生成人工智能使用情况的一项调查,27%的受访者表示在私人生活中使用了生成人工智能,21%的受访者称在工作或学校中使用了它(https://reutersinstitute.politics.ox.ac.uk/what-does-public-six-countries-think-generative-ai-news)。虽然这些人中的大多数并不是每天都在使用生成式人工智能,但也有一小部分但占比仍相当大的用户在使用。
人工智能系统不仅在操作过程中消耗能量。训练人工智能系统消耗了大量的能量,因为它使用了大量的计算能力,这会消耗电力。
IEEE会员Edson Prestes表示:“由于训练中使用了大量数据,当前的人工智能系统消耗了大量能量。这些系统需要从来自不同来源和不同类型的大量数据中学习。由于数据量巨大,人工智能训练不是使用简单的计算机进行的。它通常涉及一组计算机协同工作。”
IEEE Spectrum上的一篇文章估计了大概的数据(https://spectrum.ieee.org/deep-learning-sustainability)。根据这篇文章,研究人员估计,训练最先进的语言生成模型GPT-3需要数周时间,耗资数百万美元。它还需要19万千瓦时的电力,产生的二氧化碳量与驾驶汽车行驶的距离大致相当于往返月球的距离!
将AI纳入愈省能源
20世纪60年代,计算主要在大型计算机上进行。它们很大,但以今天的标准来看,缺不足够强大。典型的智能手机具有更高的计算能力,消耗更少的能量,并且可以放在口袋里。
许多专家认为,人工智能将遵循类似的道路,随着改进而变得更加强大和高效。
模型训练中使用的硬件类型的变化将降低能耗。一种方法可能涉及训练期间所依赖的内存存储类型。
2024 IEEE主席Tom Coughlin表示:“使用非易失性存储器而不是易失性内存(如DRAM)可以降低能耗,因为这些存储器中的数据不需要刷新。”
其他步骤可能标志着通往更环保的人工智能之路:
· 数据中心冷却的改进:计算机产生热量,需要能量来冷却运行AI的服务器。改善数据中心的冷却系统将降低人工智能的能耗。
· 使用更少的数据:人工智能模型并不总是需要很庞大。较小的模型或许会导致精度稍稍降低,但也体现了出色的能源效率。
· 使用可再生能源:尽管许多数据中心已经使用可再生能源,但并非所有数据中心都是这样做的,而且可再生能源并不总是可用的。在一些地方,温室气体排放量较大的传统能源满足了日益增长的能源需求。
· 不使用人工智能:尽管人工智能很有用,但有时它并不一定比传统方法好。在某些情况下,我们最好不要使用人工智能。