英伟达调整战略以应对CSP自研芯片竞争,多元化产品线布局AI训练与推理市场

根据TrendForce集邦咨询的最新AI Server研究,面对大型云端服务供应商(CSP)如谷歌和亚马逊加大自研芯片力度的挑战,英伟达(NVDA.US)在GTC 2026大会上调整战略,从专注云端AI训练市场转向强调各领域的AI推理应用落地。英伟达通过推动GPU、CPU以及LPU等多元产品轴线分攻AI训练、AI推理需求,并借由Rack整合方案带动供应链成长。

TrendForce集邦咨询预估,ASIC AI Server占整体AI Server的出货比例将从2026年的27.8%上升至2030年的近40%。

为巩固在AI市场的领导地位,英伟达积极推动GB300、VR200等整合CPU、GPU的整柜式方案,强调可扩展至AI推理应用。本次在GTC发表的Vera Rubin被定义为高度垂直整合的完整系统,涵盖七款芯片和五款机柜。

观察Rubin供应链进度,预计2026年第二季存储器原厂可提供HBM4给Rubin GPU搭载使用,助力英伟达于第三季前后陆续出货Rubin芯片。至于英伟达GB300、VR200 Rack系统出货进程,前者已于2025年第四季取代GB200成为主力,预估至2026年出货占比将达近80%,而VR200 Rack则约在2026年第三季度末可望逐步释放出货量能,后续发展仍需视ODM实际进度而定。

AI从生成跨入代理模型时代,在生成Token的译码(Decode)阶段面临严重的延迟与存储器带宽瓶颈。为此,英伟达整合Groq团队技术,推出专为低延迟推理设计的Groq 3 LPU,单颗内建500MB SRAM、整机柜可达128GB。

然而,LPU本身的存储器容量无法容纳Vera Rubin等级的庞大参数与KV Cache。英伟达因此于本次GTC提出“解耦合推理(Disaggregated Inference)”架构,通过名为Dynamo的AI工厂作业系统,将推理流水线一分为二:处理代理型AI时,需进行大量数学运算并储存庞大KV Cache的Pre-fill、Attention运算阶段,交由具备极高吞吐量与巨量存储器的Vera Rubin执行。而受限于带宽且对延迟极度敏感的译码与Token生成阶段,则直接卸载至扩充了巨量存储器的LPU机柜上。

在供应链进度上,第三代Groq LP30由Samsung(三星)代工,已进入全面量产阶段,预计于2026年下半年正式出货,未来更规划在下一代Feynman架构中推出效能更高的LP40芯片。

年份 ASIC AI Server 出货比例
2026年 27.8%
2030年 近40%