谷歌AI芯片“火力全开”大升级,推出第五代AI芯片:瞄准大模型和生成式AI

当地时间29日,谷歌举办了Google Cloud Next 2023大会,宣布了20多款从产品更新。

推出了全新的 TPU 产品 ——Cloud TPU v5e,它是 AI 优化的基础设施产品组合,并将成为迄今为止最具成本效益、多功能且可扩展的云 TPU。

TPU v4性能确实卓越,但是AI芯片向来竞争激烈,而且人工智能技术本身有很多的不确定性和风险。未来,谷歌是否能够保持其在人工智能硬件领域的领先地位,还有待观察。

谷歌首次公布了其用于训练人工智能模型的AI芯片TPU v4的详细信息,并称比英伟达系统更快、更高效——与同等规模的系统相比,谷歌超级计算机比基于英伟达A100芯片的系统最高快1.7倍,节能效率提高1.9倍。

据科技媒体TechCrunch报道,谷歌云计算和机器学习基础设施副总裁兼总经理马克·洛迈尔(Mark Lohmeyer) 表示,“这是迄今为止最具成本效益且易于访问的云TPU。” 洛迈尔强调,谷歌云确保用户能够将其TPU集群扩展到以前无法达到的水平,让客户能够轻松扩展他们的人工智能模型,超越单个TPU集群的物理边界。也就是说,单个大型人工智能工作负载可以跨越多个物理TPU集群,扩展到数万个芯片,并且经济高效。“在云GPU和云TPU方面,我们为客户提供了很多选择和灵活性,以满足我们看到的人工智能工作负载的广泛需求。”

随着谷歌云不断升级 AI 基础设施,越来越多的客户将选择使用谷歌云服务。据此前谷歌母公司 Aplabet 的介绍,超过半数的生成式 AI 初创公司正在使用谷歌的云计算平台。

对于谷歌而言,此次 Cloud TPU v5e 拉开了进一步变革产品模式、赋能云客户的序幕。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

发表回复