ChatGPT年耗2亿电费:AI耗电之谜揭秘
我国人工智能助手为您提供以下摘要:随着 ChatGPT 等大模型引发新一轮人工智能热潮,其背后的能耗问题也引发了广泛关注。预计到 2030 年,AI 数据中心将消耗美国 20% 至 25% 的电力需求,而目前的消耗仅为 4%。AI 模型训练和推理阶段的能耗巨大,尤其是训练阶段,每次训练需消耗约 128.7 度电,相当于 3000 辆特斯拉同时跑 32 公里。数据中心和云基础设施的支持也需要大量“液冷”进行散热,预计到 2027 年,全球 AI 可能需要 4.2-66 亿立方米的清洁淡水量。为了解决 AI 能耗问题,硬件优化和核聚变可能是重要手段。专家建议,可通过算法和模型优化降低能耗,持续开发和更新能耗更低的 AI 硬件,提高数据中心能效,以及开发核聚变能源等途径应对 AI 能耗挑战。