全球大型云端服务提供商(CSP)资本支出预计2025年突破4200亿美元

根据TrendForce集邦咨询的最新调查,随着AI Server需求的快速增长,全球大型云端服务业者(CSP)正在扩大采购英伟达(NVDA.US)GPU整柜式解决方案、扩建数据中心等基础建设,并加速自研AI ASIC。预计到2025年,包括Google(GOOG.US)、AWS(亚马逊云科技)、Meta(META.US)、微软(MSFT.US)、甲骨文(ORCL.US)以及腾讯(00700)、阿里巴巴(09988)、百度(09888)在内的八大CSP的合计资本支出将突破4200亿美元,约为2023年与2024年资本支出相加的水平,年增幅高达61%。

TrendForce集邦咨询进一步预测,2026年在GB/VR等AI机柜方案持续放量下,八大CSP的总资本支出有望再创新高,年增达24%,达到5200亿美元以上。支出结构已从能直接创造收益的设备,转向Server、GPU等资产,这表明巩固中长期竞争力与市占率优先于改善短期获利。

CSP重点布局的整柜式AI方案

2025年GB200/GB300 Rack作为CSP重点布局的整柜式AI方案,需求量成长将优于预期。客户除主要来自北美前四大CSP和Oracle外,Tesla/xAI、Coreweave和Nebius等的需求亦有提升,以执行云端AI租赁服务或生成式AI。2026年CSP将扩大布局GB300 Rack整柜式方案,并于下半年起逐步转至NVIDIA Rubin VR200 Rack新方案。

CSP自研芯片出货量有望逐年攀升

北美四大CSP持续深化AI ASIC布局,以强化在生成式AI与大型语言模型运算上的自主性与成本掌控能力。以下是各CSP的自研芯片出货量预测:

CSP 自研芯片 预计出货量增长
Google TPU v7p(Ironwood) 2026年实现逾40%的年增长
AWS Trainium v2 & v3 2025年大幅成长一倍以上,2026年年增幅度逼近20%
Meta MTIA v2 & v3 2025年主要部署于内部AI平台,2026年出货规模双倍以上成长
Microsoft Maia v2 & v3 2026年上半年启动,短期内出货量有限

Google与Broadcom合作TPU v7p(Ironwood),锁定训练应用,预计于2026年逐步放量,将接替TPU v6e(Trillium)的核心AI加速平台。AWS主力部署Trainium v2,将于2025年底推出液冷版本机柜,而由Alchip、Marvell(美满电子)参与设计的Trainium v3,首款规格预计于2026年第一季量产。Meta加强与Broadcom合作,预计于2025年第四季量产MTIA v2,提升推理效能与降低延迟。Microsoft则规划由GUC协助量产Maia v2,预计于2026年上半启动。