Arm CEO 预警:美未来20-25%电量将供AI数据中心使用
AI 技术能耗问题引发关注:预测至 2030 年,AI 数据中心或占美国 20%-25% 电力需求
近日,Arm 公司CEO雷内·哈斯发出警示,表示人工智能收集的数据越多,算法越智能,但所需能量也越大。他认为,到 2030 年,包括 ChatGPT 等大语言模型在内的 AI 数据中心可能消耗美国 20%-25% 的电力需求,较当前的 4% 有显著提升。他特别强调,ChatGPT 等大语言模型需持续满足高能耗需求,以保持高效运行。
据悉,ChatGPT 每天需处理超过 2 亿次请求,其日耗电量达到每天 50 万千瓦时。相比之下,美国普通家庭每日平均用电量为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上。为应对这一挑战,Arm 正努力降低 AI 技术的能耗。然而,随着 AI 数据中心电力需求的急剧增长,哈斯认为在缺乏更高效能源解决方案的情况下推动 AI 研究面临巨大挑战。
国际能源机构(IEA)在《2024 电力》报告中亦提及此问题。报告预测,到 2024 年,全球 AI 数据中心的耗电量将是 2022 年的十倍,其中部分原因是 ChatGPT 等大语言模型所需的电力远超传统搜索引擎如谷歌。荷兰中央银行数据科学家 Alex de Vries 的一项研究则显示,若谷歌将生成式 AI 技术应用于所有搜索,其每年将消耗约 290 亿千瓦时电量,相当于肯尼亚、危地马拉和克罗地亚一年的总发电量。