数据中心 CPU 格局深度变化!x86 让位Arm与AMD

芝能智芯
关注

芝能智芯出品

在数据中心计算架构持续演化的背景下,传统 x86 架构正面临来自 AMD 和 Arm 的双重挑战。

 AMD 通过先进制程技术和持续性能优化,取代英特尔成为 x86 领域的主力供应商。

 Arm 架构在超大规模云厂商和 AI 加速器厂商的推动下,正在成为数据中心中不可忽视的新力量。

这是市场份额的重新划分,也是算力与能效平衡、软件生态适配与系统级协同等核心技术路径的变化带来的影响。

Part 1 x86 架构的权力转移:AMD 的技术推进与英特尔的式微

过去十余年,英特尔在数据中心处理器市场占据主导地位,凭借 x86 架构和高市场渗透率,几乎构成了行业的单一架构生态。然而,随着 AMD 的持续崛起,这种格局正在改变。

AMD 通过引入“Zen”系列架构、拥抱台积电先进的制程节点(如 N7、N5 乃至 N3),将其服务器 CPU 的性能功耗比与单位面积性能大幅提升,并成功部署于多代 EPYC 系列产品之中。

例如,EPYC 9654(96 核、基于 Zen 4 架构)提供了比英特尔同代产品更高的多线程处理能力和更优的能效比,尤其在数据库、虚拟化、高性能计算(HPC)等多核心并行负载中表现优异。

与之相对,英特尔因制程迟滞(如推迟的 10nm 以及未来仍待验证的 18A 节点)和架构迭代效率下降,其 Xeon 系列在核心数、热设计功耗(TDP)控制、内存带宽等关键指标上逐步落后于 AMD。

这一技术劣势直接反映在市场数据上:AMD 的数据中心 CPU 市场份额在 2025 年已达 40%,对比 2018 年的几乎为零,形成显著增长曲线。

AMD 在 CPU-GPU 协同处理上的生态联动(如 Instinct 加速卡与 EPYC 平台的系统集成)也正逐步建立,使其在 AI 和 HPC 融合场景中具备更大空间。

2024 年第三季度,AMD 与英特尔服务器 CPU 总出货量约为 550 万颗,预估全年为 2200 万颗,其中约有一半由四大超大规模云计算厂商采购。

这些企业目前虽仍以 x86 为主,但越来越多地在系统级设计中引入基于 Arm 架构的自研芯片,使得 AMD 的未来增长面临潜在竞争压力。

AMD 的成功不仅来自产品竞争力的提升,更得益于对先进制程、系统架构协同、企业客户定制化支持等能力的持续投入。在 x86 架构仍将维持中短期主流地位的同时,AMD 逐步取代英特尔成为主导供应商的趋势已较为明确。

Part 2  Arm 架构的加速渗透:云厂商与 AI 加速平台的架构转向

与 AMD 仍处于 x86 体系之内不同,Arm 架构代表的是对数据中心计算范式的根本性重塑。

Arm 以其高能效、高可扩展性和开放授权模式,吸引了包括 AWS、Google、Microsoft、Meta 和 NVIDIA 在内的主要技术公司进行深度部署。

云厂商主导的自研 Arm 处理器实践

亚马逊 AWS 是最早大规模部署 Arm CPU 的云厂商,自 2018 年发布 Graviton 以来,现已进入第四代,累积出货量超过 200 万颗。

Graviton 处理器采用定制化 Arm Neoverse 核心,针对典型云端通用负载(如 Web 应用、容器服务、数据库等)进行微架构优化。

Graviton4 在核心数量、内存带宽及 PCIe 互联能力方面显著提升,能够在不依赖外部加速器的情况下提供稳定的通用计算性能。

根据 AWS 披露的数据,Graviton 实例相较传统 x86 实例,在性能方面提升 30%-40%,而能效优势可达 60%,直接降低了运营成本和单位算力能耗。

Google Cloud 与微软 Azure 亦发布各自基于 Arm 的自研处理器 Axion 与 Cobalt,分别针对其核心服务进行软硬一体化优化,其内部评测亦表明相较 x86 有 30%-60% 的综合性能功耗改进。

由于这些处理器主要用于云厂商自有负载(如搜索、推荐、广告、LLM 推理等),其生态适配进程较快,操作系统、编译器、中间件等均已全面支持 Arm 架构。

虽然目前通用客户应用仍以 x86 为主,但云服务商正通过价格策略与性能宣传引导用户逐步尝试 Arm 实例。

AI 加速器生态中的 Arm 控制路径演进

在 AI 加速器领域,NVIDIA 正在推动 CPU-GPU 架构的根本性变革。自 2022 年发布 Grace CPU 以来,其采用 Arm Neoverse 架构,与 Hopper 及 Blackwell GPU 配合组成计算模块,通过 NVLink 高带宽互联实现统一内存访问和任务调度。特别是在 2025 年的新一代 NVLink 72 结构中,x86 架构已被排除,Grace 成为唯一支持平台。

Grace CPU 的实际部署数据反映出 AI 计算体系对 Arm 架构的深度绑定。例如,预计 2025 年将有约 500 万个 Blackwell GPU 出货,按照每 2 个 GPU 配 1 个 Grace CPU 的比例,意味着当年将部署约 250 万颗 Grace 芯片。

这一数量远超传统 x86 控制服务器部署所需,反映了 AI 架构下 CPU 使用密度和架构要求的根本变化。

NVIDIA 对 Grace 的性能评估显示,其在高性能存储访问、内存带宽密集型任务中相较 x86 节点有 1.5 到 3 倍的能效提升。这种系统级设计的优势无法通过通用 CPU 替代,也为 Arm 在数据中心 AI 工作负载中的角色确立了基础。

Arm 架构已不再是仅用于嵌入式或移动终端的选择,而是在数据中心,尤其是 AI 和云原生负载中获得实际部署优势。

未来,随着云服务生态的成熟和 AI 芯片集成度的提升,Arm 的市场份额将持续增长,并可能改变长期 CPU 生态格局。

小结

从目前数据来看,2025 年全球数据中心 CPU 总出货量将达到约 2500 万颗,其中 Arm 占比约 15%。若将 AI GPU 控制路径中的 Arm 芯片计入,比例可能实际更高。

随着 AI 工作负载在总算力中所占比重快速提升,到 2030 年,全球数据中心 CPU 数量预计将达到 4800 万颗,而 Arm 可能占据其中的 40% 以上。

       原文标题 : 数据中心 CPU 格局深度变化!x86 让位Arm与AMD

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存