NVIDIA GTC 2026 收官:Feynman 架构技术全景——3D堆叠芯片、Rosa CPU、太空AI数据中心
GTC 2026(3月16-19日)于今日闭幕。Jensen Huang 在本届大会完整披露了 Feynman 下一代架构路线图:GPU 采用 3D Die Stacking + 定制 HBM;新增 Rosa CPU(致敬诺贝尔奖得主 Rosalyn Sussman);与 Groq 联合推出 LP40 LPU;并宣布 Space-1 轨道 AI 数据中心计划。结合 Vera Rubin 当代平台与 NemoClaw / OpenClaw 代理层,NVIDIA 正构建从地面到轨道、从云端到边缘的完整「AI 工厂」版图。
【版权说明】本文为中文深度解读与观点整理,基于公开报道综合分析,不是原文逐字翻译。原始内容版权归 NVIDIA Blog、Tom's Hardware、WCCFTech、Reuters 及相关报道方所有。
原始信源:NVIDIA Blog GTC 2026 Live Updates(2026-03-16 至 2026-03-19):https://blogs.nvidia.com/blog/gtc-2026-news/
原始信源:Tom's Hardware(2026-03-17):https://www.tomshardware.com/pc-components/gpus/nvidia-updates-data-center-roadmap-with-rosa-cpu-and-stacked-feynman-gpus
原始信源:WCCFTech(2026-03-17):https://wccftech.com/nvidia-feynman-gpu-gets-3d-die-stacking-custom-hbm-next-gen-rosa-cpu/
原始信源:Reuters(2026-03-16):https://www.reuters.com/world/asia-pacific/nvidia-ceo-set-reveal-new-chips-software-ai-megaconference-gtc-2026-03-16/
## 一、GTC 2026 概览
NVIDIA GTC 2026 于 2026 年 3 月 16 日至 19 日在美国圣何塞 SAP 中心举行,逾 30,000 名与会者、450+ 赞助商、1,000 场会议、2,000 位演讲者。Jensen Huang 开场即宣称本届 GTC 将「覆盖 AI 五层蛋糕的每一层」——从芯片到推理,从代理层到物理 AI,从地面到太空。
本届会议核心主题可归纳为三条主线:
1. **当代平台(Vera Rubin)** — 已上市,面向 AI 工厂规模化部署
2. **下一代路线图(Feynman,2028)** — 技术规格首次详细披露
3. **代理层与生态(NemoClaw / OpenClaw)** — 将 AI 代理变成企业级部署标准
## 二、Feynman 架构:2028 年的技术底牌
### 2.1 GPU:3D Die Stacking + 定制 HBM
Feynman GPU(代号 GF200?)将采用 **3D Die Stacking** 技术——这是 NVIDIA 首次在数据中心 GPU 上引入三维芯片堆叠,预计由 **TSMC A16 工艺**生产,并借助 **Intel Foundry 的 EMIB 先进封装**技术。
内存方面,Rubin 采用 HBM4,Rubin Ultra 采用 HBM4E;Feynman 将进一步跨越,引入 **定制 HBM**(可能是 HBM4E 增强版或定制 HBM5)——与标准 HBM5 规格差异化,具备超高带宽与更低延迟。
### 2.2 CPU:Rosa(致敬 Rosalyn Sussman)
Feynman 平台将放弃 Vera CPU,转用全新设计的 **Rosa CPU**。Rosa 命名自 **Rosalyn Sussman Yalow**——诺贝尔生理学或医学奖得主,放射性同位素医学诊断技术的创始人。
Jensen Huang 表示,Rosa 的设计目标是「在代理 AI 基础设施全栈中高效移动数据、工具和 token」——即专为大规模多代理工作负载优化的 CPU,而非通用计算 CPU。
### 2.3 LP40 LPU:NVIDIA × Groq 联合打造
Feynman 平台的另一大亮点是 **LP40 LPU**(Language Processing Unit)——由 NVIDIA 与 Groq 团队联合研发。Groq 以其 GroqChip 在 AI 推理领域著称(token 生成速度曾领先行业),此次与 NVIDIA 的深度合作意味着:
Feynman 平台将同时拥有 GPU 的并行训练能力 + LPU 的极速推理能力
LP40 支持 **NVFP4** 数值格式,进一步压缩推理成本
NVIDIA 正在从「只卖 GPU」向「卖完整推理解决方案」演进
### 2.4 互联:光学 NVLink + BlueField-5 + Spectrum 7
Feynman 代际的互联层同步升级:
**NVLink 8 CPO**(共封装光学,Co-Packaged Optics):铜缆与光学 scale-up 双通道
**BlueField-5 DPU**:下一代数据处理单元,强化存储与网络安全
**Spectrum-class 光学 scale-out**:数据中心机架间光互联
**CX10 网卡**:新一代 ConnectX 系列
整套方案的目标:让 Feynman 代际的 AI 工厂在能效与互联带宽上实现量级跨越。
## 三、Space-1:AI 数据中心进入轨道
GTC 2026 最令人意外的宣布之一:**NVIDIA 进军太空**。
Jensen Huang 宣布,新 Vera Rubin 架构以天文学家 Vera Rubin(她的工作揭示了暗物质的存在)命名,而 **Space-1 Vera Rubin** 系列将被设计部署在**轨道上运行的 AI 数据中心**,将加速计算从地球延伸至太空。
这并非远期概念:NVIDIA 已开始与合作伙伴推进太空级别的计算基础设施设计。背景逻辑是:
地球上的 AI 工厂面临能源、土地、冷却的物理瓶颈
轨道数据中心可利用太阳能、天然散热(辐射冷却),并服务全球网络边缘
SpaceX Starlink、Amazon Kuiper 等低轨星座提供了连接层
## 四、NemoClaw + OpenClaw:代理层的企业基础设施
Jensen Huang 高调点名 **OpenClaw**(称其为「人类历史上最受欢迎的开源项目」),并宣布 NVIDIA 全面支持 OpenClaw 平台:
**OpenShell** runtime:企业内部安全代理运行时
**NemoClaw** 技术栈:策略执行 + 网络守卫 + 隐私路由的完整企业代理安全框架
**Nemotron Coalition**:六大前沿开源模型家族联盟——语言推理(Nemotron)、世界模型(Cosmos)、通用机器人(Isaac GR00T)、自动驾驶(Alpaymayo)、生物化学(BioNeMo)、气候(Earth-2)
Huang 的断言:「今天世界上每一家公司都必须有 OpenClaw 战略。」
## 五、NVIDIA 芯片路线图速览
| 代号 | GPU | CPU | 内存 | 预计发布 |
|------|-----|-----|------|---------|
| Blackwell | GB200/GB100 | Grace | HBM3e | 2024-2025 |
| Rubin | GR200 | Vera | HBM4 | 2026 |
| Rubin Ultra | GR300 | Vera | HBM4E | 2027 |
| Feynman | GF200(含 LP40 LPU) | Rosa | 定制 HBM | 2028 |
## 六、 万亿推理市场:Jensen Huang 的大账
Huang 在主题演讲中正式将 2025-2027 年 AI 芯片营收机会从 亿上调至 ** 万亿**。这一预测基于:
推理需求从「训练驱动」转向「持续在线代理驱动」,token 消耗量呈指数增长
NVIDIA 从 GPU 销售延伸到 NemoClaw、DGX Cloud、AI Enterprise 软件的完整利润链
中国市场订单重启(Huang 表示已收到中国芯片采购订单)
## 七、结论:NVIDIA 在构建 AI 时代的基础设施帝国
GTC 2026 闭幕,留下的不是某款芯片发布,而是一张从 2024 年延伸至 2028 年的完整蓝图:
**当下(Vera Rubin)**:AI 工厂规模部署,推理成本最优
**中期(Feynman,2028)**:3D 芯片叠加 + 定制内存 + LPU 融合,突破物理极限
**长期(Space-1)**:轨道 AI 数据中心,地球计算版图向太空延伸
**生态(NemoClaw / OpenClaw)**:代理层标准化,锁定企业 AI 部署话语权
如果说 Blackwell 是 NVIDIA「重新定义数据中心」的第一章,Feynman 很可能是「重新定义计算」的下一章。