英伟达老板黄仁勋: 人工智能算力发展的多个维度

英伟达老板黄仁勋说,以后搞人工智能不能光靠堆硬件,软件生态的价值得重视起来。他在最近的一场活动里说了不少实话,核心意思就是大家现在都在算一个账,“一美元或者一瓦电能算出多少个Token”,这才是决定输赢的关键。芯片这东西一旦卖掉了,顶多算一锤子买卖,但开发软件得一辈子操心维护。这就逼着大家不光要看参数,还得看这套体系能不能跑长久。 英伟达一直坚持用统一内存架构和软件栈策略,一开始可能硬件贵点,但它就是不想让生态太乱。只要优化了软件栈,全世界用这个架构的算力机器都能同步变快,算下来的总体拥有成本(TCO)就会更优。这其实就是从卖产品升级到卖体系的打法,强调了长期投入软件才能把硬件的劲儿使出来。 除了自己赚钱,开放的合作也很重要。黄仁勋说现在开源模型已经贡献了全球大约四分之一的Token产出量。这种出乎意料的爆发式增长把人工智能的应用范围给大大拓宽了,以前只能在大型机房里跑,现在好多企业本地部署也能搞起来了。开源生态门槛低、迭代快,跟商业化解决方案一起构成了推动普及的双引擎。 为了应对未来更大、更复杂的计算需求,硬件架构必须得改。他重点讲了Vera Rubin平台的模块化突破。这个平台用托盘式设计,支持在机器不停机的状态下直接换配件,实现了“边跑边修”的高可用性目标。以前机器一坏就得整机下架重装,现在单个节点的组装时间从几小时缩到了几分钟,运维的活儿轻松多了。 散热和供电是个大问题。他把供电稳定性称为制约算力增长的“最大瓶颈”。现代AI负载特别是推理任务会产生剧烈的瞬时电流波动,波动幅度能达到25%这么高。为了对付这种情况,数据中心不得不预留大量冗余电力容量来压峰值,结果平均利用率一直上不去。新一代平台通过系统级的电子设计创新,在机架内部把这些波动给“平滑”掉了。就算单个图形处理器的功耗高达1800瓦,整个系统呈现给电网的也是一条相对平稳的曲线。这样一来数据中心就能近乎100%地利用电力配额,不需要为了应付峰值而疯狂投资基础设施。 从软件价值说到开源贡献,再到模块化设计和供电稳定,黄仁勋勾勒出了人工智能算力发展的多个维度。很明显,未来的关键不在于单纯比拼硬件指标的高低,而在于构建软硬协同、持续优化、稳定可靠、高效绿色的系统性能力。在这个数字经济的大趋势下,这种既看长期效益又有技术韧性的路子,能给全球经济发展提供更坚实的支撑。