如今人工智能(AI)有望成为下一个工业革命,许多国家推出相关政策,希望推动AI相关技术。新加坡更希望在未来五年投资超过10亿元,来提升AI方面的能力。AI已然成为兵家必争之地。AI的浪潮掀起全球对于图形晶片(GPU)的需求,本质上,AI的爆发会促使部分地区乃至全球的能源短缺。
晶片制造是个极耗能源的过程。据彭博社报道,荷兰ASML公司新一代EUV光刻机每台耗电约100万瓦,三星、台积电等晶片制造大厂能源消耗巨大;台积电对化石燃料高度依赖,2025年耗能估占台湾的12.5%,且能源的消耗会随着制程的提升(例如制程从14纳米上升至7纳米)而增加。这也是为何台积电每年都会用掉台湾十分之一的电量,近期台湾面临能源短缺问题,与台积电积极建新厂也有关系。
ChatGPT的兴起让人畅想世界进入AI时代的未来,这也促使对于晶片,尤其是图形晶片的需求。马斯克甚至表示GPU在美国比大麻更难得到,可见GPU的稀缺以及科技市场对它的追捧。每个人都想搭上AI的浪潮。GPU的需求猛增就会导致能源的消耗比过往更高,尤其训练AI用的GPU都需要非常先进的制程,否则就难以在短时间训练出效果不错的AI。
制造之外,训练以及运营AI是另一回事。训练AI就好比教导婴儿知识,需要时间,背后就需要GPU日夜不断消耗大量能源来训练。比如,谷歌的预训练语言模型T5使用了86兆瓦的电力,产生47公吨的二氧化碳排放量。2021年的一项研究表明,ChatGPT的前身(GPT 3.0)需要大约一个月训练,在过程中使用多达1300兆瓦的能源和大约350万升的水;ChatGPT的训练所消耗的能源和水资源只会多不会少。有人估计每训练一次ChatGPT,就要花费能供126个丹麦家庭使用一年的能源。如今许多企业,如谷歌、Meta等纷纷布局AI,训练自己的AI,对能源的消耗就更难以估计和想象了。
如今ChatGPT免费开放给大众使用,但在ChatGPT上搜索一条内容,相比于传统的搜索引擎,消耗的能源是约五六倍。加拿大的报告曾估计OpenAI在2023年1月的用电量,相当于17.5万个丹麦家庭一年的用电量。随着ChatGPT在2023年持续走红,相信需要的电资源以及水资源(冷却服务器用)只会暴增。OpenAI曾一度关闭ChatGPT会员的购买通道,便是因没有足够晶片和能源支持庞大的需求。有学术论文指出,ChatGPT一年排放8.4吨的二氧化碳;而ChatGPT每处理五至50个人类输入的问题,就需要消耗500毫升的水来冷却服务器,可见对能源的消耗有多大。
AI可说是能源的黑洞,前期硬件的制造、中期的训练以及后期的运营,都需要大量能源,最终才能得到一个理想的AI模型。因此有人称之为环境杀手。
若使用清洁能源来训练AI,是否就不会对环境造成破坏?是的,但鲜少有国家能够完全依靠清洁能源发电。不可否认的事实是,AI的兴起势必给人类社会的能源结构、供给带来一定压力,甚至是短缺。