英伟达的“太空算力”野心:黄仁勋要如何吞下1万亿美元AI蛋糕?
黄仁勋又一次穿着皮衣,在圣何塞的聚光灯下,花了近两个小时,向世界展示的早已不是几张显卡。从代号“Vera Rubin”的七芯片超级计算机,到收购Groq后推出的LPU推理芯片,再到将算力送上太空的“Space-1”模块——这场GTC大会,本质上是一张英伟达帝国向“AI即服务”全面进军的路线图。
黄仁勋又一次穿着皮衣,在圣何塞的聚光灯下,花了近两个小时,向世界展示的早已不是几张显卡。从代号“Vera Rubin”的七芯片超级计算机,到收购Groq后推出的LPU推理芯片,再到将算力送上太空的“Space-1”模块——这场GTC大会,本质上是一张英伟达帝国向“AI即服务”全面进军的路线图。
最核心的信号,是他抛出的那个惊人数字:2025年至2027年,AI芯片市场营收将超过1万亿美元。这不再是关于如何卖出更多GPU,而是关于如何定义和垄断整个AI时代的生产资料。当“Token是新的货币”成为共识,英伟达要做的,是成为铸造这种货币的“中央银行”和“印钞厂”本身。
Vera Rubin:不是芯片,是“AI工厂”的标准化模组
Vera Rubin平台是这场硬件盛宴的绝对主角。但它的革命性在于,英伟达交付的已不再是单一的GPU,而是一个由七颗协同芯片(Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6交换芯片及Groq 3 LPU)组成的、即插即用的“超级计算机模组”。
这背后的逻辑很清晰:AI工作负载极其复杂,从大规模训练、微调、推理到智能体(Agent)的实时交互,每个环节对算力、带宽、存储的需求都不同。过去,客户需要自己像攒电脑一样,采购不同厂商的CPU、网络、存储设备来组装集群,效率低下且兼容性成谜。现在,英伟达直接把“全家桶”端上来了。其核心产品NVL72机架,集成了72颗Rubin GPU和36颗Vera CPU,宣称相比上一代Blackwell,训练大模型所需的GPU数量降至1/4,每Token推理成本降到1/10。
这让我想起云计算早期,亚马逊AWS通过提供标准化的EC2实例(虚拟机)和S3存储,彻底改变了企业IT基础设施的构建方式。英伟达正在对AI硬件做同样的事:将非标的基础设施建设,变成标准化的产品采购。客户买的不是一个零件,而是一整个“AI工厂”的生产线。黄仁勋甚至预告了下一代架构“Kyber”,这意味着一套持续迭代、向后兼容的“AI基础设施即产品”体系正在形成。对于云厂商和大型企业来说,这降低了部署门槛;但对英伟达而言,这意味着更深的绑定和更高的客单价。
Groq LPU入场:英伟达的“推理焦虑”与解法
“训练是过去式,推理才是未来。”这已成为行业共识。训练一座大模型可能是一次性的百亿级花费,但模型上线后,每秒都可能产生海量的推理请求,这才是持续不断的“现金牛”。英伟达的GPU在训练领域是王者,但在某些推理场景下,可能像用挖掘机切菜——性能强大但未必最经济高效。
于是,收购Groq并推出Groq 3 LPU(语言处理单元)成了一步妙棋。这里需要理解大模型推理的两个阶段:
- Prefill(预填充):读取并理解用户的整个问题。这个过程可以并行计算,GPU擅长。
- Decode(解码):像挤牙膏一样,一个词一个词地生成回答。这个过程极度依赖内存带宽,而非纯算力。
Groq LPU的核心武器是巨大的片上SRAM(静态随机存储器),其内存带宽高达150TB/s,是传统GPU HBM带宽的7倍左右。这就像在CPU旁边建了一个超大型、速度极快的“便签本”,专门用来快速存取生成下一个词所需的数据。
英伟达的方案是“混合双打”:用Rubin GPU负责Prefill的重计算,用Groq LPU机架专门负责Decode的高吞吐输出。黄仁勋称,这种组合能实现每兆瓦推理吞吐量35倍的提升。这本质上是在用“专用芯片”的策略,堵住任何可能出现的推理市场缺口。当有人认为“推理市场可能不需要那么贵的GPU”时,英伟达拿出了更便宜、更高效的LPU选项,但订单依然落在自己手里。
NemoClaw与开源联盟:操作系统的战争,英伟达要当“地基”
黄仁勋在台上毫不吝啬地赞美OpenClaw,称其为“个人AI的操作系统”,并宣布推出其优化版——NemoClaw。这步棋的野心,远不止于推广一个工具。
OpenClaw这类AI智能体框架的爆发,意味着AI正在从“问答机”走向“执行者”。智能体可以操作电脑、调用API、执行多步骤任务。这带来了一个核心需求:安全与可控。你不可能让一个拥有强大能力的AI在系统里“裸奔”。
NemoClaw的核心组件“OpenShell”,就是一个为智能体设计的沙箱环境,提供了安全、网络和隐私护栏。更重要的是,它的模型调度是混合的:敏感任务在本地用开源模型处理,复杂任务则通过“隐私路由器”安全地调用云端大模型。这解决了企业应用AI最大的顾虑——数据泄露。
与此同时,英伟达拉拢Mistral、Perplexity、Cursor等公司成立“Nemotron开源模型联盟”,并联合训练开源基础模型。这看似是在支持开源,对抗闭源巨头,但其商业逻辑无比清晰:
- 繁荣生态:更多的开源模型,意味着更多的训练和推理需求,最终都需要英伟达的硬件。
- 定义标准:通过联盟主导开源模型的开发方向,确保其与英伟达的硬件和软件栈(如NVIDIA AI Enterprise)深度优化。
- 对冲风险:避免整个AI生态被一两家闭源巨头垄断,从而丧失对其基础设施的议价权。
英伟达在下一盘很大的棋:它不一定要做出最流行的AI应用或模型,但它要确保所有流行的应用和模型,都运行在由它定义和优化的“地基”之上。从硬件(Vera Rubin)、到系统软件(NemoClaw)、再到模型生态(Nemotron联盟),护城河越挖越深。
自动驾驶、数字孪生与太空:将“AI工厂”模式复制到每一个角落
发布会的其他部分,更像是英伟达“AI工厂”蓝图的垂直应用演示:
- 自动驾驶:比亚迪、吉利、Uber等巨头的订单,表明DRIVE Hyperion平台正从研发走向大规模部署。L4级自动驾驶本身就是一座“移动的AI工厂”,对算力的需求是持续且巨大的。
- 数字孪生:DSX Air平台允许客户在虚拟世界中模拟、设计和优化整个AI数据中心,将部署时间从数月缩短到几天。这不仅是卖软件,更是在销售一套基于英伟达标准的AI基础设施方法论。当客户用英伟达的工具完成设计,采购清单上会是谁的设备,答案不言而喻。
- 太空计算:推出Space-1 Vera Rubin模块,堪称最具科幻感的一步。在卫星上直接运行大模型进行实时数据分析和自主决策,这打开了“太空边缘计算”的想象空间。这不仅是新市场,更是一种技术宣言:英伟达的算力,将无处不在。
投资视角:英伟达的“天花板”到底在哪?
从投资角度看,英伟达的叙事已经发生了根本性转变。它正试图从一家受制于“硅周期”和“游戏显卡周期”的芯片公司,转型为一家掌控“AI基础设施周期”的软硬件一体生态巨头。
机遇在于:
- 市场定义权:通过推出覆盖全流程的解决方案,英伟达正在主动定义和做大AI基础设施市场的总盘子。1万亿美元的预测,本身就是一个自我实现的预言。
- 高切换成本:一旦企业将整个AI工作流构建在英伟达的全栈系统上,迁移到其他架构(如AMD或自研芯片)的成本将变得极高。
- 软件与服务溢价:CUDA生态已是护城河,而DSX、Nemo等软件和服务将进一步提升毛利率,使业务模式更具韧性。
风险与挑战同样不容忽视:
- 反垄断审视:如此庞大的垂直整合,势必引来全球监管机构更严厉的目光。英伟达需要小心平衡其市场主导地位。
- 客户的反抗:大型云厂商(如AWS、Google、微软)和科技巨头(如Meta、特斯拉)从未停止自研芯片的努力,以降低成本和寻求自主。英伟达的“全家桶”策略可能加速这一进程。
- 技术路径风险:AI算法日新月异。如果未来出现革命性的新模型架构,对硬件的要求发生剧变,英伟达当前的硬件优势是否能持续?
- 估值已包含极高预期:当前股价已经反映了其在AI领域的绝对领导地位和高速增长。任何季度业绩的轻微波动或增长放缓的迹象,都可能引发剧烈的市场反应。
黄仁勋描绘的,是一个由英伟达硬件作为基石、软件作为粘合剂、覆盖从地球到太空的宏大AI世界。这个故事的吸引力毋庸置疑。但对于投资者而言,在惊叹其技术野心的同时,或许更需要冷静审视:这家公司能否成功管理其日益庞大的帝国,以及市场为这份“万物皆可AI”的蓝图所支付的价格,是否已经过于昂贵。毕竟,在科技行业,最大的风险往往来自于“无所不能”的幻觉本身。











