当地时间4月9日,在谷歌举行的“Cloud Next 2024”大会上,谷歌首度公开了其专为数据中心设计的首款自研Arm构架CPU——Axion。

早在2023年2月就有传言称,谷歌正在开发两种不同的 Arm 服务器 CPU。

其中一款代号为“Maple”,基于 Marvell 的技术,并且可能基于命运多舛的“Triton”ThunderX3及其后继产品 ThunderX4。

第二个项目代号为“Cypress”,由以色列的谷歌团队设计。

谷歌发布自研Arm服务器CPU:相比x86性能高50%、能效高60%  第1张

据The next platform报道称,Maple 和 Cypress 都是由 Uri Frank 领导研发的,Uri Frank 于 2021 年 3 月从英特尔加入谷歌,成为服务器芯片设计副总裁。

Frank 在英特尔工作了超过两年半的时间,担任工程和管理职务,最终负责许多个人电脑核心芯片的设计。

谷歌 Axion CPU使用的是Arm “Demeter” V2 内核,而不是Arm 在今年 2 月发布的“Poseidon”V3 或“Hermes”N3 内核。

谷歌发布自研Arm服务器CPU:相比x86性能高50%、能效高60%  第2张

谷歌机器学习、系统和云 AI 总经理 Amin Vahdat表示:“Axion 处理器将谷歌的芯片专业知识与 Arm 最高性能的 CPU 内核相结合,提供与当今云中最快的基于 Arm 的通用实例相比,这些实例的性能提高了 30%,与当前基于 X86 的同类实例相比,性能提高了 50%,能源效率提高了 60%。”

谷歌发布自研Arm服务器CPU:相比x86性能高50%、能效高60%  第3张

Google Cloud副总裁暨运算和机器学习基础设施总经理Mark Lohmeyer表示:“Google Axion建立在开放基础上,任何地方使用Arm构架的客户都能轻松采用Axion CPU,无需重新构架或编写应用程序。”

据谷歌云首席执行官托马斯·库里安(Thomas Kurian)介绍,Axion 芯片已经在谷歌内部投入生产(可能是有限的),支持 BigTable、Spanner、BigQuery、Blobstore、Pub/Sub、Google Earth Engine 和 YouTube 广告平台,今年晚些时候这些实例将在可供客户在 Google Cloud 上直接租用。

另外,Google Cloud还在去年12月推出了下一代AI加速器TPU v5p,可以用于训练一些规模最大、要求最高的生成式AI模型。

单一TPU v5p Pod包含了8,960个芯片,是TPU v4 Pod芯片数量2倍以上。

谷歌发布自研Arm服务器CPU:相比x86性能高50%、能效高60%  第4张

据介绍,Google Cloud不会对外销售Axion CPU、TPU v5p等芯片,而是提供给企业客户租用或运用在应用服务中。

需要指出的是,目前亚马逊、微软、阿里云、百度等众多的云服务提供商都有依赖于英伟达、英特尔、AMD等芯片制造伙伴提供的芯片,但是他们也有自研的定制化Arm服务器芯片和AI加速芯片,以便更好的服务客户,降低对于外部供应商的依赖,降低成本。