「美队」老黄深夜扔出地表最强GPU!算力百倍狂飙,下次改演雷神

财经 (1) 2025-10-29 10:04:09

  炒股就看,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:新智元)

新智元报道

编辑:桃子 好困

【新智元导读】凌晨,老黄GTC主题演讲华盛顿首秀,直接亮出下一代GPU核弹——Vera Rubin,性能狂飙100倍。目前,Blackwell已全面量产,2026年底两大GPU王牌预计爆赚5000亿美金。

英伟达GTC大会,首次在华盛顿召开。

在近两小时演讲中,老黄不仅再次上演了一波AI美队,而且还给出了AI时代独一份的洞察——

AI不是工具,而是会用工具的「工人」。

当老黄首次掏出下一代「杀手锏」Vera Rubin超级芯片时,全场都震撼了。

相较于九年前,他亲手交付给OpenAI的首个超算DGX-1,性能足足提升了100倍。并且明年就能量产。

当然,老黄的野心远不止于硬件。接下来的一系列震撼合作,将英伟达的AI帝国展示在了所有人面前:

在三大Scaling Law驱使下,英伟达内部早已形成了良性正循环。

老黄预测,在2026年底前,仅凭「Blackwell+Rubin」就足以冲击5000亿美元的营收。

而且,这一数字还未将中国市场计算在内。

下一代Vera Rubin首秀

性能狂飙百倍

现场,老黄再次搬出了,未来三年英伟达GPU路线图,从Blackwell,到Rubin,再到Feynman。

他激动官宣,短短9个月后,Blackwell芯片已在亚利桑那州全面量产。

而真正站在全场C位的,还是下一代Vera Rubin的首次亮相。

这是英伟达第三代NVLink 72机架级超级计算机,彻底实现了无线缆连接。

目前,Vera Rubin超级芯片已在实验室完成测试,预计明年10月可以投产。

这块超级芯片计算能力达到100 Petaflops,是DGX-1性能的100倍。

换句话说,以前需要25个机架,现在一个Vera Rubin就能完成。

如下,便是Rubin计算托盘,推理性能可达440PF。

其底部配备了8个Rubin CPX GPU、BlueField-4数据处理器,还有两颗Vera CPU,以及4个Rubin封装——总共8个GPU,全部实现了无缆、全液冷。

同时,英伟达还引入了一种全新「上下文处理器」(Context Processor),支持超100万token上下文。

如今,AI模型要处理、记忆的上下文越来越多,它可以在回答问题前,学习和阅读成千上万份PDF、论文、视频。

此外,BlueField-4革命性处理器,可以加速AI模型加载时间。

还有NVLink交换机,可以让所有GPU同步传输数据;以太网交换机Spectrum-X可以确保处理器同时通信而不拥堵。

再加上Quantum交换机,三者结合,系统全部兼容InfiniBand、Quantum 和 Spectrum Ethernet。

所有这些组合起来,一个完整的机架塞满150万个零件,重量足足有两吨。

它的主干网络,一秒内就能传输相当于整个互联网的流量,刷新全球最快的token生成速度。

老黄表示,「一个1GW规模的数据中心,大概需要8000-9000台这样的机架。这就是未来的AI工厂」!

老黄抛出5000亿预言

AI美队再上线

GPU是AI革命的核心引擎,而AI的世界,远不止ChatGPT。

主题演讲上,老黄亲自科普了AI的定义。

一上来,他就给大众认知来了一个降维打击,AI并不等于聊天。

他将其比作一个数据密集型的「编程」,在CPU时代的旧世界,人们手工编码,软件在CPU上运行,Windows主导了一切。

而在当下,机器学习训练,模型直接跑在GPU之上。

能源-GPU-超算-模型-应用,全栈的能力构成了完整的AI。

接下来,老黄还提出了一个对于AI的深刻洞察——

过去的软件产业,本质上是在「造工具」,Excel、Word、浏览器皆是工具。

在IT领域,这些工具可能就是「数据库」之类的,其市场规模大约在一万亿美元左右。

但AI不是工具,是「工人」。事实上,AI是「会用工具的工人」。

这就是根本性差异。

到目前为止,人类发明的一切东西,本质上都是工具,都是给自己用的。

但这回是历史上头一次,技术自己会「干活」了。

老黄举例道,英伟达每一位工程师都在用Cursor,生产力得以大幅提升。而Cursor使用的工具是VS Code。

AI本身也正在成为一个「全新的产业」,当人们把各种形式的信息编程token之后,就需要一个「AI工厂」。

10x的性能,1/10的成本

「AI工厂」不同于过去的数据中心,是因为它基本上只做一件事——运行AI。

一来,生产尽可能有价值、更智能的token;其次,要用极高的速度将其生产出来。

过去两年,业界让AI学会了变得更加聪明的方法,预训练是第一阶段。

下一步就是后训练,再之后就是测试时,让AI不断思考(Long Thinking)。

这也是老黄一直以来,反复强调的三大Scaling Law。

模型越聪明,使用的人越多;用的人越多,需要的算力越多。

与此同时,摩尔定律边际趋缓,仅靠狂堆晶体管,无法解决两条指数曲线带来的「饥饿感」。

那么,摩尔定律已死,又该如何将成本大幅压下来?

老黄给出的答案是:极致协同设计(Extreme Co-design)。

英伟达是当今世界上,唯一一家真正从一张白纸开始,同时思考芯片、系统、软件、模型、应用的公司。

他们的协同设计,将AI算力实现了从Scale up到Scale out,再到Scale across的扩展。

Grace Blackwell NVL72,一台思考机器,就是英伟达「协同设计」的典型代表。

为了更直观说明,老黄再次上演「芯片版美队」,手里拿着巨型芯片,由72块GPU无缝互联。

他还调侃道,「下次要演雷神,一伸手,芯片就到手里了」

为了驾驭万亿级参数模型,它采用了MoE架构。传统系统受限于GPU间互联带宽,一块GPU要扛32位专家的计算。

在NVLink 72架构下,每块GPU可以放4位专家。

SemiAnalysis最新基准测试显示,Grace Blackwell每块GPU的性能,是H200的十倍。

只多了一倍晶体管,速度却快了十倍,秘诀就在于——极致协同设计。

GB200,这台世界上最昂贵的计算机,却能生成成本最低的token。

它的极致性能,均摊了每一次计算的总拥有成本(TCO),也就是说——

10倍性能,十分之一成本。

而此刻,这一突破正逢其时。

老黄展示了,全球六大云巨头的资本支出曲线(CapEx),正以史无前例的速度飙升。

它还联手能源部,官宣未来要建七大全新AI超算。

与此同时,老黄还指出,这场变革不是单线的,而是「双平台迁移」。

即通用计算转向加速计算,工具计算转向智能计算。

而英伟达GPU是唯一兼容以上所有的架构,包括加速计算和AI。

最令人震惊是,他预测,截至2026年,Blackwell+Rubin的可预见性收入累计5000亿美元。

算上目前已经出货的600万块Blackwell,未来两年将达2000万GPU出货量,相较于Hopper增长5倍(400万块)。

老黄正在释放一种信号——AI工厂已成新基建。

开源扛把子,没有弱项

不仅如此,老黄这场演讲,还在向世界宣告:英伟达不仅是算力之王,更是AI生态的绝对核心。

老黄一针见血,「过去几年,开源AI在推理、多模态、蒸馏效率三大维度上,实现巨大飞跃」。

正是这些进步,让开源模型第一次真正成为开发者手中非常实用的工具。

全世界,都离不开开源。

为此,英伟达也在全力投入这一方向。目前,他们在全球开源贡献榜上,23个模型上榜,覆盖了语言、物理AI、语音、推理等全领域。

我们拥有全球第一的语音模型、第一的推理模型、第一的物理AI模型。下载量也非常惊人。

物理AI时代

三台计算机铸真神

当AI走向应用最后一层堆栈,那便是物理AI(Physical AI)。

一直以来,老黄认为,要实现物理AI,需要三台计算机——

一个是GPU超算用于训练,一个通过Omniverse Computer用于模拟,另一个是机器人计算机。

以上这三种计算机上都运行着CUDA,由此才能推动「物理AI」发展,也就是理解物理世界、物理定律、因果关系的AI。

目前,英伟达正联手伙伴,打造一个工厂级的物理AI。一旦建成,就会有大量机器人在数字孪生的世界中工作。

Robotaxi,也是一种机器人

在自动驾驶领域,英伟达推出了一套「开箱即用的L4级自动驾驶底座」——DRIVE AGX Hyperion 10。

它搭载了NVIDIA DRIVE AGX Thor系统级芯片、经过安全认证的NVIDIA DriveOS操作系统、一套经过完整认证的多模态传感器套件(包含14个高清摄像头、9个雷达、1个激光雷达和12个超声波传感器)以及认证的板卡设计。

在数万亿英里真实及合成驾驶数据的加持下,新一代VLA(视觉-语言-动作)推理模型,让车辆不只能识别红绿灯,还能在无结构路口或人车行为突变时做出类人判断(比如理解交警临时指挥、突发改道),而且是在车上实时完成。

对于行业来说,公司可以直接拿到可量产的参考架构与数据/验证闭环,更快把Robotaxi或无人配送车跑起来。

NVIDIA ARC:用AI重新定义6G网络

在通信行业,英伟达则宣布与诺基亚达成合作,并推出了支持AI原生6G的加速计算平台——Aerial RAN Computer Pro(ARC-Pro)。

与此同时,英伟达还将以每股6.01美元的认购价向诺基亚投资10亿美元。

交易宣布后,诺基亚股价收盘上涨20.86%,创下自2016年1月下旬以来的新高。

NVQLink:打通AI与量子的融合之路

在量子计算领域,众所周知,量子计算机的核心「量子比特」(Qubits),虽具备碾压传统计算机的并行计算潜力,但在计算过程会不断产生错误。

为了让它们正常工作,就必须依赖一台传统的超级计算机,通过一条要求严苛的超低延迟、超高吞吐量的连接,实时进行复杂的校准和纠错。

这条连接线,就是量子计算通往现实世界的最大瓶颈。

为此,英伟达推出了一款全新的互连技术——NVQLink,首次将量子处理器与AI超级计算机无缝地、紧密地连接在一起,形成一个单一、连贯的超级系统。

正如老黄所说:「NVQLink是连接量子和经典超级计算机的罗塞塔石碑。它的出现,标志着量子-GPU计算时代的正式开启。」

参考资料:

https://www.youtube.com/watch?v=lQHK61IDFH4

THE END