数据中心负载正从CPU向GPU迁移

作者:william威廉官网 日期:2026-02-22 浏览: 来源:威廉体育

  

数据中心负载正从CPU向GPU迁移

  当英伟达凭借GPU生态优势强势切入数据中心CPU领域,并与英特尔达成50亿美元战略合作重构“CPU+GPU”协同架构时,传统芯片巨头正面临从技术路线到产业生态的全维度挑战。

  英伟达通过入股英特尔(持股5%),将x86 CPU与其GPU深度整合,推出面向数据中心和PC的定制化SoC芯片。这种“CPU+GPU”协同架构将算力效率提升至新高度:训练效率较前代提升4倍,推理效率暴涨30倍。传统以CPU为核心的通用计算模式被加速计算取代,数据中心负载正从CPU向GPU迁移。

  英伟达以CUDA生态和NVLink技术构建闭环,并开源关键工具(如自动驾驶AI模型)绑定开发者。黄仁勋更提出“AI工厂”概念,通过Spectrum-XGS以太网技术实现全球分布式数据中心的跨域协同(Scale-Across),将算力扩展提升至十亿瓦级。

  加速先进封装(如Foveros 3D堆叠)和SiC中介层技术研发,解决高功耗芯片散热瓶颈。

  强化CPU+GPU自研整合,推出MI300X等竞品对抗英伟达超节点方案。

  联合云厂商推动CSP主导的NPO(近封装光学)技术,规避英伟达CPO架构绑定。

  Meta、微软等巨头采购数百万英伟达芯片,但同步布局自研ASIC芯片(如Meta定制芯)降低依赖。

  传统交流电架构转向800V直流配电,采用固态变压器(SST)直接转换高压电,能效提升超30%。阳光电源、金盘科技等已推出适配方案。

  华为昇腾超节点实现单卡推理2300Tokens/s,国产交换芯片(盛科通信)突破12.8Tbps技术。

  先进封装环节,长电科技XDFOI方案、通富微电CoWoS类技术突破国际封锁。

  算力三级扩展:Scale-Up(机柜内互联)、Scale-Out(数据中心内)、Scale-Across(跨域协同)同步推进。

  电力与散热投资占比提升:液冷市场年复合增长率46.8%,2029年规模达162亿美元;SST供电方案2027年进入放量期。

  英伟达主导的CPO(光电共封装)存在整板报废风险,良率仅40%-50%,CSP更倾向NPO替代方案。

  美国出口管制加剧供应链波动,HBM产能倾斜导致消费级显存短缺。 (以上内容均由AI生成)