🤖 AI总结
主题
英伟达在2026年GTC大会上发布新一代AI芯片、智能体操作系统及机器人平台。
摘要
英伟达GTC大会发布Vera Rubin AI平台、NemoClaw智能体方案及扩展Robotaxi生态,推动AI技术全面落地与产业变革。
关键信息
- 1 发布专为AI智能体设计的Vera Rubin平台,算力达3.6艾次浮点运算。
- 2 推出企业级OpenClaw参考方案NemoClaw,助力企业构建智能体服务。
- 3 宣布比亚迪、吉利等加入其Robotaxi自动驾驶平台,并展示迪士尼雪宝机器人。
![]()
下一个 AI 阶段,英伟达依旧称王。
作者|徐珊
编辑|靖宇
「我确信我们这是一场科技盛宴。今天在座的每一位,都代表着英伟达的生态。」在 2026 年 GTC 的开幕现场,那个永远穿着黑色皮夹克的男人——黄仁勋,一上台就带着他招牌式的自信。
![]()
与往年开场不同,今年是 CUDA 生态 20 周年。一开场,老黄就讲述英伟达如何从 Geforce 到光线追踪,再到 AI 智能体,一步步打造自家的护城河。「如今 CUDA 生态已经形成了数据飞轮。」在他的讲述下,我们能够看由他亲手创下的 CUDA 生态已经成就了一个商业帝国。
此次发布会上,老黄带来了专为为智能体 AI 设计的 Vera Rubin,算力达到 3.6 艾次浮点运算。结合最新推出的机架,最新的每兆瓦算力吞吐量提升 35 倍。此外,他还推出了一款专为极高的单线程性能而设计的 CPU——Rosa CPU。
更重要的是,英伟达还推出了企业级 OpenClaw 参考方案,NemoClaw。你可以直接下载、使用、二次开发,并且可以把它对接全球所有 SaaS 公司。相较之下,今年英伟达在主题演讲上对机器人、自动驾驶、量子计算的重视度都有所减弱。
看完这场演讲,你会有种预感:我们正站在全新计算平台变革的起点。就像上一轮变革中诞生的谷歌和亚马逊,这一轮 AI 大爆炸中,一批改变世界的「AI 巨头」正在孕育。
老黄在每一个环节上手里那份长到展示不完的公司名单,就是他的底气。他不仅是在定义计算,他是在利用 AI 这个支点,强行把全球的金融、医疗、制造、零售全部拽入一个由 GPU 统治的「AI 时代」。
再一次地,英伟达看到了 AI 的未来,现在,他正拽着全世界一起跳进去。
01
Vera Rubin:
7 款突破性芯片、5 个机架级系统、1 台超级计算机
「短短十年间,算力实现了 4000 万倍的飞跃。」英伟达回顾了过去 10 年间算力随着三大扩展定律迅猛增长,从预训练、微调、推理全面发力,再到如今的通用智能系统,计算需求仍在呈指数级增长。
来到 AI Agent 时代,英伟达带来了 Vera Rubin。它为智能体 AI 的全生命周期而设计,从芯片层级重新定义 AI 智能体所需要的 CPU、存储、网络与安全。
参数信息上,Vera Rubin 搭载 NVLink 72,算力达到 3.6 艾次浮点运算,NVLink 全对等带宽高达 260 TB/s,将会成为驱动智能体 AI 时代的关键引擎。不仅如此,与上一代相比,Vera Rubin 系统实现了 100% 液冷,所有传统线缆全部消失。
整体配置上,目前,Vera CPU 机架是专为编排与通用工作负载设计。而 STX 机架基于 BlueField‑4 打造的 AI 原生存储。同时借助 Spectrum‑X 共封装光学技术实现横向扩展,大幅提升能效与可靠性。
![]()
而 Groq 3 LPX 机架是与 Vera Rubin 深度互联,Groq LPU 集成了230MB 的片上 SRAM,为 Vera Rubin 再添一把火,推动整体的运算速度再升级。
整套系统合在一起,每兆瓦算力吞吐量提升 35 倍。毫无疑问,Vera Rubin 平台,用七颗芯片、五大机架级计算机,打造出一台面向通用智能的革命性 AI 超级计算机。
讲述产品设计思路时,黄仁勋认为大语言模型会变得越来越大,生成的 tokens 数量会越来越多、速度越来越快,这样它才能实现更快的思考。但与此同时,它也必须频繁访问内存,对内存的压力会变得极大,包括 KV 缓存、结构化数据 QDF、非结构化数据 QVS 等,因此它会对存储系统提出极高、极高的要求。所以,AI 时代的存储系统需要被重新改写。
到了 Agentic 时代,AI 还会使用各种工具,并且对网页浏览器、虚拟 PC 的工具速度要求很高。因此,这些 PC、这些计算节点,都必须做到更快。英伟达打造了一款全新的 CPURosa CPU,专为极高的单线程性能而设计,具备高数据输出能力、强数据处理效率,同时拥有较强的能效表现。据介绍,它是全球唯一一款采用 LPDDR5 的数据中心 CPU,单线程性能与每瓦性能均拉满性价比。
![]()
Vera Rubin 全家桶系列|来源:英伟达
「我们打造这款 CPU,就是为了与整套机架协同,支撑智能体处理任务。这款产品同样已投入量产。我们从未想过会单独销售 CPU,但现在我们的独立 CPU 销量非常可观。这无疑将成为我们数十亿美元级的业务。我对我们的 CPU 架构团队感到非常满意。」黄仁勋说道。
老黄还现场展示了 Rubin Ultra。与普通 Rubin 水平插入的方式不同,Rubin Ultra 采用全新的 Groq 机架,垂直插入 Groq 机架,能在一个 NVLink 域内连接 144 颗 GPU。「这个 Groq 机架非常重,我肯定举不起来,也就不试了。」
![]()
Groq 机架 |来源:英伟达
在中板的背面,英伟达不再使用传统铜缆。他认为,铜缆在传输距离上存在限制,而是用这套全新系统连接 144 颗 GPU。这就是新一代 NVLink。它同样垂直安装,接入背面的中板。前端是计算,后端是 NVLink 交换机,合为一台巨型计算机。
回到最后,新的芯片架构究竟能带来多少实质性的收益?黄仁勋提到,芯片到最后都会其实会影响未来 tokens 的市场定位与定价。
「tokens 是全新的大宗商品。和所有商品一样,一旦跨过拐点、走向成熟,就会分层分级。」他对未来的 tokens 做了几类分级:
高吞吐量、低速度的版本,可用于免费套餐;
中端套餐,模型更大,速度更快,输入上下文长度更长;
未来甚至会出现高端旗舰套餐,支持极高的 tokens 生成速度,用于关键路径任务或超长研究场景。到那时,每百万 tokens/150 美元也完全合理。
「模型越大,智能程度越高;输入 tokens 上下文越长,结果越精准相关;速度越快,思考与迭代越充分,AI 就越聪明。模型越智能,每上一个台阶,价格就能相应提升。比如到 45 美元一档。」他觉得未来的 tokens 消耗将会改变一切。
在他的设想中,如果假设一名研究员每天使用 5000 万 tokens,按每百万 150 美元计算,对一个研究团队而言,这其实完全可以接受。「这就是 AI 的未来。」站在客户角度,他假设将所有算力资源重新分配:25% 的功耗用于免费套餐,25% 用于中端套餐,25% 用于高端套餐,25% 用于尊享套餐。如果其数据中心总功耗只有 1 吉瓦,所以客户可以决定如何分配这些资源,免费套餐帮吸引更多用户,高端套餐则服务最有价值的客户。这些组合在一起,最终决定了你的营收。
在这个简单的模型假设下,他说到,采用 Blackwell 平台,能够 比 Hopper 实现 5 倍的营收增长。而 Vera Rubin 能比 Blackwell 带来 5 倍营收提升。
![]()
Vera Rubin |来源:英伟达
Groq 的计算系统是一款确定性数据流处理器,采用静态编译与编译器调度架构。也就是说,所有时序安排,像是数据何时传输、计算何时执行、数据如何同步到达,都将会由编译器提前静态规划完成,通过软件调度,没有动态调度。这款架构配备了大容量 HBM,专为推理这单一工作负载而生。
目前,Groq 3 LPU 已经进入量产阶段,预计今年下半年、也就是第三季度左右开始出货,产品为 Groq LP。
至于 Vera Rubin,虽然之前 Grace Blackwell 的早期样品调试非常复杂,需要模拟 72 路互联,但 Vera Rubin 的样品进已经完成了测试,第一套 Vera Rubin 机架也已经在微软 Azure 上线并正常运行。
现阶段,英伟达正在全速生产 Vera Rubin 机架和 GPT‑300 机架,全线满负荷量产,现在已经搭建起每周可生产数千套系统的供应链。
英伟达的下一款芯片平台的架构名称为Feynman 架构。
不仅如此,Groq 和 Vera Rubin,都将会是英伟达 AI 工厂的核心组成配件。
Groq 一颗芯片仅 500MB 存储;而 Vera Rubin 一颗芯片的存储将会达到 288GB。
一个万亿参数的模型,所有参数都必须存放在 Groq 芯片中,将需要大量的芯片保证其存储空间。但如果把它放在 Vera Rubin 旁边,就能在 Vera Rubin 上存放 AIGC 系统所需的海量 KV 缓存。
因此,英伟达重构了 AI 推理的资源配置——把最适合的工作,交给最适合的芯片。
在老黄的设想里,像是模型内的解码环节的 Attention 部分,需要大量计算,可以放在 Vera Rubin 上完成;解码中的 tokens 生成部分,可以放在 Groq 芯片上完成。
通过特殊模式的以太网紧密耦合后,这样两款芯片组会能够让 Alpamayo 时延降低近一半。借助英伟达 Dynamo 软件的调度与整合,Vera Rubin 架构配合 Groq LPU,让高层推理性能提升了 35 倍。
02
NemoClaw:AIOS 的商业参考
「OpenClaw 是人类历史上最受欢迎的开源项目,并且仅用几周时间就达成了这一成就。它的发展速度,甚至超越了当年的 Linux。」黄仁勋提到,OpenClaw,可以用任何模态和它交互,它都能听懂;它可以给你发消息、发短信、发邮件。它具备完整的 IO 能力。
「OpenClaw 开源了智能体计算机的操作系统。这就像当年 Windows 让我们得以创造个人电脑一样,如今 OpenClaw 让我们能够创造个人智能体。」
黄仁勋认为对每一家公司、每一家软件公司、每一家科技公司的 CEO 而言,当下最关键的问题是:你的 OpenClaw 战略是什么?
「就像我们都需要 Linux 战略,都需要 HTTP、HTML 战略——那开启了互联网时代;都需要 Kubernetes 战略——那成就了移动云时代。今天,世界上每一家公司,都必须拥有 OpenClaw 战略,也就是智能体系统战略。这就是新一代计算机。」
他认为未来每个企业的工作方式和人的工作方式甚至是薪酬支付方式也会发生变化。
在 OpenClaw 之前,企业 IT 的模式是「数据中心」,因为那些大房间、大楼里存放的是数据、人们的文件、企业的结构化数据。数据流经带工具的软件、记录系统、各种固化在 IT 里的工作流,最终变成供人类、数字工作者使用的工具。旧的 IT 产业下,软件公司打造工具、存储文件,还有 IT 顾问帮助企业使用、集成工具。
![]()
未来的企业结构|来源:英伟达
但在 OpenClaw 时代、在智能体时代之后,每一家 IT 公司、每一家企业、每一家SaaS公司,都将变成一家「智能体服务公司」(Agent-as-a-Service, AAS company)。
但距离这一步,这里有一个关键问题尚没有解决——企业网络中的智能体系统,可以访问敏感信息、执行代码,还能对外通信。它完全可能获取员工信息、供应链数据、财务机密等敏感内容,并把这些数据外传,安全风险存疑。
随后,英伟达推出了自己的 NVIDIA OpenClaw 参考方案——Open NemoClaw。
![]()
NemoClaw|来源:英伟达
它内置了一整套智能体 AI 工具集,其中核心技术之一就是 OpenShell 的模块,现在已经完整集成到 OpenClaw 中。用户可以直接下载、使用、二次开发,并且可以把它对接全球所有 SaaS 公司的策略引擎。
同时,用户可以对接这些策略引擎,执行安全策略、设置网络护栏、运行隐私路由而保护企业内部环境,让智能体在安全可控的前提下运行。Open NemoClaw 还支持用户构建自定义智能体,使用自己的专属模型。
![]()
NemoClaw 搭载英伟达模型后在类 OpenClaw 产品的排行榜|来源:英伟达
他觉得未来硅谷的招聘手段之一将会是:「这份工作附带多少 tokens 额度?」
到时候,员工的基础年薪可能是几十万美元,而企业会在此基础上,再额外给他们一半薪酬以 tokens 形式发放,让他们的生产力放大 10 倍。
未来的每一家软件公司,都会是智能体驱动的。它们会成为 tokens 牌生产者、tokens 的使用者。同时也是面向所有客户的 tokens 提供商。
03
物理 AI :
比亚迪、吉利加入
英伟达 Robotaxi 朋友圈,
迪士尼雪宝压轴登场
谈完了应用层的变化,黄仁勋将话题转到物理 AI 方向,并携手其物理 AI 家族亮相。
![]()
英伟达物理 AI 布局「全家福」|来源:英伟达
目前英伟达有三类计算机用于训练的计算机、用于合成数据生成与仿真的计算机,和机器人本体内部的车载计算机。
英伟达还宣布一大批全新合作伙伴。「自动驾驶的 ChatGPT 时刻已经到来。如今我们确信,汽车完全可以实现成功的全自动驾驶。」老黄说道。
英伟达宣布 NVIDIA 自动驾驶出租车(Robotaxi)平台再添四家全新合作伙伴:比亚迪、现代、日产、吉利。这些厂商每年合计生产 1800 万辆汽车。加上此前已加入的奔驰、丰田、通用等伙伴,未来支持 Robotaxi 的汽车数量将极为可观。英伟达还宣布将在多个城市,把这些支持 Robotaxi 的车辆接入合作伙伴的运营网络。
未来,传统的无线电塔,将变成 NVIDIA Aerial AI RIM 智能基站。它会成为一座「Robotaxi 无线电塔」。到时候,企业能够理解交通状况,智能调整波束赋形,在最大化保真度的同时,尽可能节省能源。
他还提到,借助英伟达 Alpamayo,车辆现在具备推理能力,能在各种场景下安全、智能地行驶。我们可以让车辆解释它的决策思考过程,并直接服从语音指令。
比如我们对车说:「hey Mercedes,我们能开快一点吗?」车辆可以回答:「当然,我这就提速。」通过传统仿真与神经仿真相结合,它们生成海量合成数据,并大规模训练策略模型。
这一次,NVIDIA 还打造了多款开源工具:Isaac Lab:用于在仿真中训练和评估机器人 Newton:可扩展、GPU 加速的微分物理仿真引擎 Cosmos 世界模型:用于神经仿真 GR00T 开源机器人基础模型:用于机器人推理与动作生成。
在主题演讲的结尾,迪士尼《冰雪奇缘》的雪宝机器人登上舞台,目前迪士尼的机器人正在用 NVIDIA 仿真训练。「我个人最期待的机器人之一就是来自迪士尼的机器人。」黄仁勋说道。
![]()
黄仁勋和雪宝挥手告别 GTC|来源:英伟达
今年,黄仁勋在 GTC 上抛出的,不再是方向与口号,而是一整套对当下的 AI 创业者而言真正能够上手即用的工具。
从 AI 芯片、OpenClaw 智能体体系,到物理 AI、机器人、自动驾驶规模化落地。他把未来几年 AI 产业必须走的路、最难解决的问题、最痛的瓶颈,一一给出了答案。每一家企业、每一个开发者,都能在这套新框架里找到自己的位置。
从今年开始,AI 不再是堆参数、拼算力、讲故事,而是走向企业、走向实处。这或许不是某一家公司的胜利,而是 AI 的飞轮开始真正运转起来。
*头图来源:英伟达官网
本文为极客公园原创文章,转载请联系极客君微信 geekparkGO
每年三月,老黄一出场,AI 的叙事就会被重新定义一次。2026 年的 GTC,NVIDIA 在芯片、机器人、Agent 三条线同时猛推,黄仁勋开场就说要「让世界惊讶」。我们邀请到 PingCAP 联合创始人兼 CTO 黄东旭,破壳机器人创始人、清华大学助理教授许华哲 —— 两位身处硅谷、亲历 GTC 现场的重磅嘉宾。
今日午间 12:00,极客公园视频号直播间,一起聊聊 GTC 之后,AI 产业的真实走向,拆解 Agent、机器人与中国 AI 的下一步。