在人工智能技术快速发展的背景下,芯片硬件与软件生态的协同优化成为行业焦点。
英伟达首席执行官黄仁勋近日在CES 2026媒体问答会上指出,尽管芯片硬件是一次性投入,但软件生态的持续维护与优化对提升整体效率至关重要。
他强调,当前AI行业已进入“Token经济学”时代,核心指标是“每瓦/每美元能生成多少Token”,而统一的内存架构和软件栈能够避免生态碎片化,确保全球AI基础设施同步升级,从而降低长期总体拥有成本(TCO)。
黄仁勋的发言直指行业痛点。
近年来,部分厂商试图通过降低硬件成本(如采用廉价内存)提升竞争力,但此举可能导致软件适配复杂化,反而增加后期维护成本。
英伟达坚持统一架构的策略,使得软件优化成果能够惠及全球用户,形成规模效应。
数据显示,开源模型已贡献全球约四分之一的Token生成量,其爆发式增长进一步凸显了软件生态的重要性。
在技术层面,英伟达推出的Vera Rubin平台展现了模块化设计的突破性进展。
与传统的Grace Blackwell系统相比,Rubin平台采用托盘式架构,支持在系统运行时更换关键组件,实现“边跑边修”。
这一设计将节点组装时间从2小时缩短至5分钟,大幅提升运维效率。
同时,平台摒弃繁杂线缆,升级为100%全液冷系统,显著增强了可靠性。
能源管理是当前算力扩张的另一大挑战。
现代AI负载(尤其是推理任务)常引发瞬时功耗跳变,电流波动幅度高达25%,迫使数据中心预留大量冗余电力。
Rubin平台通过系统级电子设计平滑功耗波动,即便单颗GPU热设计功耗达1800W,仍能保持电网负载稳定。
这一创新使运营商能够近乎100%利用电力容量,突破算力扩张的能源瓶颈。
从“比拼单机性能”到“较量系统效率”,算力产业正在走向更成熟的竞争范式。
硬件可以一次性交付,但软件、运维与能源约束决定了算力能否长期稳定转化为生产力。
面对新一轮建设潮,产业各方需要以全生命周期视角审视投入,推动标准化、可维护与高能效的基础设施体系,让算力扩张更稳、更省、更可持续。