
这是英伟达 5 年来,第一次在 CES 上没发消费级显卡。
CEO 黄仁勋阔步走向 NVIDIA Live 的舞台中央,还是去年那件亮面鳄鱼皮衣。

与去年单独主旨演讲不同,2026 年的黄仁勋密集赶场。从 NVIDIA Live 到西门子工业 AI 对话,再到联想 TechWorld 大会,48 小时内横跨三场活动。
上一次,他在 CES 发布了 RTX 50 系列显卡,而这一次,物理 AI 和机器人技术成为了全新的主角。
Vera Rubin 计算平台登场,依旧是买越多省越多
发布会期间,爱整活的老黄直接把一台 2.5 吨重的 AI 服务器机架搬上了舞台,也因此引出了本次发布会的重点:Vera Rubin 计算平台,以发现暗物质的天文学家命名,目标只有一个:
加速 AI 训练的速度,让下一代模型提前到来。

通常来说,英伟达内部有个规矩:每代产品最多只改 1-2 颗芯片。但这次 Vera Rubin 打破了常规,一口气重新设计了 6 款芯片,并全面进入生产阶段。
究其原因,伴随着摩尔定律的放缓,传统性能提升方式已经跟不上 AI 模型每年 10 倍的增长速度,所以英伟达选择了「极致协同设计」——在所有芯片、整个平台各个层级上同时创新。

这 6 款芯片分别是:
1. Vera CPU:
– 88 个 NVIDIA 定制 Olympus 核心
– 采用 NVIDIA 空间多线程技术,支持 176 个线程
– NVLink C2C 带宽 1.8 TB/s
– 系统内存 1.5 TB(为 Grace 的 3 倍)
– LPDDR5X 带宽 1.2 TB/s
– 2270 亿个晶体管

2. Rubin GPU:
– NVFP4推理算力50PFLOPS,是前代 Blackwell的5倍
– 拥有 3360 亿晶体管,比 Blackwell 晶体管数量增加了 1.6 倍
– 搭载第三代Transformer引擎,能根据 Transformer 模型需求动态调整精度

3. ConnectX-9 网卡:
– 基于 200G PAM4 SerDes 的 800 Gb/s 以太网
– 可编程 RDMA 与数据通路加速器
– 通过 CNSA 与 FIPS 认证
– 230 亿个晶体管

4. BlueField-4 DPU:
– 专为新一代 AI 存储平台而构建的端到端的引擎
– 面向 SmartNIC 与存储处理器的 800G Gb/s DPU
– 搭配 ConnectX-9 的 64 核 Grace CPU
– 1260 亿个晶体管

5. NVLink-6 交换芯片:
-连接 18 个计算节点,支持最多 72 个 Rubin GPU 像一个整体协同运行
– 在 NVLink 6 架构下,每个 GPU 可获得 3.6 TB 每秒的 all-to-all 通信带宽
– 采用 400G SerDes,支持 In-Network SHARP Collectives,可在交换网络内部完成集合通信操作

6. Spectrum-6 光以太网交换芯片
– 512 通道,每通道 200Gbps,实现更高速数据传输
– 集成台积电 COOP 工艺的硅光子技术
– 配备共封装光学接口(copackaged optics)
– 3520 亿个晶体管

通过 6 款芯片的深度整合,Vera Rubin NVL72 系统性能比上一代 Blackwell 实现了全方位的提升。
在 NVFP4 推理任务中,该芯片达到了 3.6 EFLOPS 的惊人算力,相比上一代 Blackwell 架构提升了 5 倍。在 NVFP4 训练方面,性能达到 2.5 EFLOPS,实现 3.5 倍的性能提升。
存储容量方面,NVL72 配备了 54TB 的 LPDDR5X 内存,是前代产品的 3 倍。HBM(高带宽内存)容量达到 20.7TB,提升 1.5 倍。在带宽性能上,HBM4 带宽达到 1.6 PB/s,提升 2.8 倍;Scale-Up 带宽更是高达 260 TB/s,实现了 2 倍增长。
尽管性能提升如此巨大,晶体管数量只增加了 1.7 倍,达到 220 万亿个,展现了半导体制造技术上的创新能力。

工程设计上,Vera Rubin 同样带来了技术突破。
以前的超算节点要接 43 根线缆,组装要 2 小时,还容易装错。现在 Vera Rubin 节点采用 0 根线缆,只有 6 根液冷管线,5 分钟搞定。
更夸张的是,机架后面布满了总长近 3.2 公里的铜缆,5000 根铜缆构成 NVLink 主干网络,实现 400Gbps 传输速度,用老黄的话来说,:「可能有几百磅重,你得是体格很好的 CEO 才能胜任这份工作」。
在 AI 圈里时间就是金钱,一个关键数据是,训练一个 10 万亿参数模型,Rubin 只需 Blackwell 系统数量的 1/4,生成一个 Token 的成本约为 Blackwell 的 1/10。

此外,虽然 Rubin 的功耗是 Grace Blackwell 的 2 倍,但性能提升远超功耗增长,整体推理性能提升 5 倍,训练性能提升 3.5 倍。
更重要的是,Rubin 相比 Blackwell 吞吐量(每瓦-每美元可完成的 AI Token 数)提升10倍,对于造价 500 亿美元的千兆瓦数据中心来说,这意味着营收能力将迎来直接翻倍。
过去 AI 行业的最大痛点是,上下文内存不够用。具体来说,AI 在工作时会生成「KV Cache」(键值缓存),这是 AI 的「工作记忆」。问题是,随着对话变长、模型变大,HBM 内存显得有些捉襟见肘。

去年英伟达推出 Grace-Blackwell 架构扩展内存,但还是不够。而Vera Rubin 的方案是在机架内部署 BlueField-4 处理器,专门管理 KV Cache。
每个节点配 4 个 BlueField-4,每个背后有 150TB 上下文内存,分配到 GPU 上,每块 GPU 额外获得 16TB 内存——而 GPU 自带内存只有约 1TB,关键是带宽保持 200Gbps,速度不打折。
但仅有容量还不够,要让分布在几十个机架、上万块 GPU 上的「便签」像同一块内存那样协同,网络必须同时做到「够大、够快、够稳」。这就轮到 Spectrum-X 登场了。
Spectrum-X 是英伟达推出的全球首款「专为生成式 AI 设计」的端到端以太网网络平台,最新一代的 Spectrum-X 采用台积电 COOP 工艺,集成硅光子技术,512 通道×200Gbps 速率。
老黄算了笔账:一个千兆瓦数据中心造价 500 亿美元,Spectrum-X 能带来 25% 吞吐提升,相当于节省 50 亿美元。「你可以说这个网络系统几乎是『白送』的。」
安全方面,Vera Rubin 还支持保密计算(Confidential Computing)。所有数据在传输、存储、计算过程中全程加密,包括 PCIe 通道、NVLink、CPU-GPU 通信等所有总线。
企业可以放心把自己的模型部署到外部系统,不用担心数据泄露。
DeepSeek 震惊了世界,开源和智能体是 AI 主流
重头戏看完,回到演讲开始。黄仁勋一上台就抛出了一个惊人的数字,过去十年投入的约 10 万亿美元计算资源,正在被彻底现代化。
但这不仅仅是硬件的升级,更多的是软件范式的转移。他特别提到了具备自主行为能力(Agentic)的智能体模型,并点名了 Cursor,彻底改变了英伟达内部的编程方式。

最让现场沸腾的,是他对开源社区的高度评价。黄仁勋直言,去年 DeepSeek V1 的突破让全世界感到意外,它作为第一个开源推理系统,直接激发了整个行业的发展浪潮。PPT 上,我们熟悉的国产玩家 Kimi k2 和 DeepSeek V3.2 分别是开源第一和第二。
黄仁勋认为,虽然开源模型目前可能落后最顶尖模型约六个月,但每隔六个月就会出现一个新模型。
这种迭代速度让初创公司、巨头、研究人员都不愿错过,包括英伟达在内。
所以,他们这次也没有只卖铲子,推销显卡;英伟达构建了价值数十亿美元的 DGX Cloud 超级计算机,开发了像 La Proteina(蛋白质合成)和 OpenFold 3 这样的前沿模型。

▲ 英伟达开源模型生态系统,涵盖了生物医药、物理 AI、智能体模型、机器人以及自动驾驶等
而英伟达 Nemotron 模型家族的多款开源模型,也成为这次演讲的亮点。其中包含语音、多模态、检索生成增强以及安全等多个方面的开源模型,黄仁勋也提到,Nemotron 开源模型在多个测试榜单上表现优秀,并且正在被大量的企业采用。
物理 AI 是什么,一口气连发几十款模型
如果说大语言模型解决了「数字世界」的问题,那么英伟达的下一个野心,很明显是要征服「物理世界」。黄仁勋提到,要让 AI 理解物理法则,并在现实中生存,数据是极其稀缺的。
在智能体开源模型 Nemotron 之外,他提出了构建物理 AI(Physical AI)的「三台计算机」核心架构。

- 训练计算机,也就是我们熟知的,由各种训练级显卡构建的计算机,像图片中提到的 GB300 架构。
- 推理计算机,运行在机器人或汽车边缘端的「小脑」,负责实时执行。
- 模拟计算机,包括 Omniverse 和 Cosmos,它能为 AI 提供一个虚拟的训练环境,让它在模拟中学习物理反馈。

▲ Cosmos 系统能生成大量的物理世界 AI 训练环境
基于这套架构,黄仁勋正式发布了震惊全场的 Alpamayo,全球首个具备思考和推理能力的自动驾驶模型。

与传统自动驾驶不同,Alpamayo 是端到端训练的系统。它的突破性在于解决了自动驾驶的「长尾问题」。面对从未见过的复杂路况,Alpamayo 不再是死板地执行代码,而是能像人类司机一样进行推理。
「它会告诉你接下来会做什么,以及它为什么会做出这样的决策」。在演示中,车辆的驾驶方式惊人地自然,能够将极端复杂的场景,拆解为基础常识来处理。
演示之外,这一切也不是纸上谈兵。黄仁勋宣布,搭载 Alpamayo 技术栈的奔驰 CLA,将在今年第一季度于美国正式上线,随后陆续登陆欧洲和亚洲市场。

这辆车被 NCAP 评为全球最安全的汽车,底气就是来自于英伟达独特的「双重安全栈」设计。当端到端的 AI 模型对路况信心不足时,系统会立即切换回传统的、更稳妥的安全防护模式,确保绝对安全。
发布会上,老黄还特地展示了英伟达的机器人战略。

▲九大顶级 AI 及相关硬件制造商之间的竞争,他们都在扩大产品线,尤其是要抢夺机器人赛道,高亮的单元格为自去年以来的新产品
所有机器人都将搭载 Jetson 小型计算机,在Omniverse 平台的 Isaac 模拟器中接受训练。并且英伟达正在把这套技术整合进Synopsys、Cadence、西门子等工业体系。

▲ 黄仁勋邀请了包括波士顿动力、Agility 等人形机器人、四足机器人「登台」,他强调,最大的机器人其实是工厂本身
自下而上,英伟达的愿景是,未来芯片设计、系统设计、工厂仿真,都将由英伟达物理 AI 加速。发布上,又是迪士尼机器人闪亮登场,老黄还因此对着这群超萌机器人调侃道:
「你们会在计算机中被设计、在计算机中被制造,甚至在真正面对重力之前,就会在计算机中被测试和验证。」

如果不说是黄仁勋,整场主题演讲看下来甚至会以为是某个模型厂商的发布会。
在 AI 泡沫论甚嚣尘上的今天,除了摩尔定律的放缓,黄仁勋似乎也需要用 AI 到底能做什么,来提升我们每个人对 AI 的信心。
除了发布全新 AI 超算平台 Vera Rubin 的强悍性能,来安抚算力饥渴,他在应用和软件上也比以往花了更多的功夫,拼尽全力让我们看到,AI 将会带来哪些直观改变。
此外,就像黄仁勋说的一样,过去他们为虚拟世界造芯,现在他们也下场亲自演示,将注意力放在以自动驾驶、人形机器人为代表的物理 AI,走进行业竞争更激烈的真实物理世界。
毕竟,只有仗打起来,军火才能持续卖下去。
文|莫崇宇、张子豪、姚桐
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。
爱范儿 | 原文链接 · 查看评论 · 新浪微博
from 爱范儿 https://ift.tt/6Zsodh2
via
IFTTT