英伟达推出新一代超级计算平台 算力飞跃助推AI发展

全球人工智能产业正处重要转折期。随着生成式AI应用逐渐走向成熟,产业重心开始转向更强调实际价值的代理式AI和物理AI。在此背景下,计算芯片的性能提升成为驱动AI持续演进的关键。英伟达发布Vera Rubin平台,正是对这一趋势的回应。 从技术指标看,Rubin GPU在多项能力上实现跃升:推理性能达到Blackwell的5倍,配备第三代Transformer引擎,NVFP4推理算力达到50 PFLOPS。训练上,Vera Rubin平台相较前代提升3.5倍;HBM4带宽达到22TB/s,是Blackwell的2.8倍;晶体管数量达到3360亿个,为Blackwell的1.6倍。这些数据反映出英伟达芯片工艺、架构设计与集成度上的持续推进。 值得关注的是,Vera Rubin平台采用六芯片协同的架构设计,集成Rubin GPU、Vera CPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-6以太网交换机。其目标是缓解AI推理长期运行时遇到的算力、网络与存储瓶颈。通过协同设计,英伟达试图让AI“多想一会儿”在成本上更可行:将推理成本降至Blackwell平台的十分之一,并把训练混合专家模型所需的GPU数量降低到四分之一。 在应用层面,英伟达正推动AI在多个领域落地。在机器人方向,展示了实时交互与模拟环境能力,并推进GR00T系列机器人基础模型。在自动驾驶方向,发布全球首个开源的视觉-语言-行动推理模型Alpamayo——支持链式推理——可理解复杂场景中的因果关系并解释决策逻辑。首款搭载英伟达完整自动驾驶技术栈的梅赛德斯-奔驰CLA车型计划于2026年第一季度在美国上路,显示AI驱动自动驾驶正从研发加速走向商用。 针对AI智能体长期运行带来的海量上下文数据对存储系统的压力,英伟达推出由BlueField-4 DPU驱动的推理上下文内存存储平台。该平台在GPU高速内存与传统存储之间新增“记忆层”,最高可实现每秒处理令牌数提升5倍,帮助AI在长时间运行中保持稳定与效率。新一代DGX SuperPOD系统可让多达576个Rubin GPU协同工作,为超大规模训练与推理提供集群级方案。 在生态建设上,英伟达继续加大对开源模型的投入,通过扩展“Open Model Universe”开源模型库,覆盖机器人、物理AI、生物医学等领域。黄仁勋表示,开源模型与最前沿模型大约存在6个月差距,但差距正在缩小。开源模型的加速发展正在推动行业创新与格局变化。 市场反馈也显示出Vera Rubin平台的热度。截至发布会当日,Rubin对应的订单已达3000亿美元,反映出产业界对该平台的预期与投入。

从“更会生成”走向“更会推理、更能行动”,技术演进正在推动算力体系向平台化、体系化升级。新一代算力平台的价值——不只体现在指标提升——更在于为长期推理、复杂协作和现实世界应用提供更低成本、更高效率的基础设施。面向未来,谁能在算力、网络、存储与生态协同上建立持续优势,谁就更有机会在新一轮智能化产业变革中抢占先机。