人工智能有望帮助程序员更快地编写代码,让司机驾驶更安全,并减少日常任务的耗时。不过,近日发表于《焦耳》的一篇观点文章认为,如果广泛采用人工智能,可能会产生大量的能源足迹,其未来电力需求甚至会超过一些国家。
(相关资料图)
“考虑到对人工智能服务日益增长的需求,未来几年与人工智能相关的能源消耗很可能会大幅增加。”文章作者、荷兰阿姆斯特丹自由大学的Alex de Vries说。
自2022年以来,可生成文本、图像或其他数据的生成式人工智能经历了快速发展,例如OpenAI的ChatGPT。训练这些人工智能工具需要向模型提供大量数据,是一个能源密集型的过程。总部位于美国纽约的人工智能开发公司Hugging Face报告称,其多语言文本生成人工智能工具在训练期间消耗了约433兆瓦时(MWH)的电力,足以为40个普通美国家庭供电一年。
而且人工智能的能源足迹还不止于训练过程。De Vries的分析表明,每当该工具生成文本或图像时,它也会使用大量的计算能力和能源。例如,ChatGPT每天运行可能需要564兆瓦时的电力。
虽然,世界各地的公司都在努力提高人工智能硬件和软件的效率,以降低这种工具消耗的能源,但作者表示,机器效率的提高往往会增加需求。最终,技术进步将导致资源使用的净增加,这种现象被称为杰文斯悖论。
De Vries说:“提高这些工具的效率和易用性的结果可能是,我们允许更多的应用程序和更多的人使用它。”
例如,谷歌一直在将生成式人工智能整合到公司的电子邮件服务中,并正在测试用人工智能为其搜索引擎提供协助。该公司目前每天处理多达90亿次搜索,研究人员估计,如果每一次谷歌搜索都使用人工智能,每年将需要大约29.2太瓦时的电力,这相当于爱尔兰一年的用电量。
De Vries表示,这种极端情况在短期内不太可能发生,因为额外的人工智能服务器成本高昂,而且人工智能服务器供应链存在瓶颈。但人工智能服务器的生产预计将在不久的将来迅速增长。据预测,到2027年,全球人工智能相关的用电量每年将增加85~134太瓦时。这相当于荷兰、阿根廷、瑞典等国家的年用电量。
此外,人工智能效率的提高还可以使开发人员将一些计算机处理芯片重新用于人工智能,这可能会进一步增加人工智能相关的电力消耗。
“潜在的增长表明,我们需要非常注意我们使用人工智能的目的。它是能源密集型的,所以我们不应该把它用在我们实际上不需要它的地方。”De Vries说。
相关论文信息:
http://doi.org/10.1016/j.joule.2023.09.004