说到这次 CES,大家都盯着2026年的自动驾驶技术。英伟达那边动静不小,他们把自己的 Alpamayo 推理模型开源了,直接把行业往“会思考”的方向推。创始人黄仁勋在发布会上也说了,Alpamayo 不是靠死规矩跑流程,它有一套视觉-语言-行动(VLA)架构,能让系统自己琢磨下一步该咋做,还得说明白为啥这么做。 这就好比遇到路口红绿灯坏了,行人突然冲出来这种“乱码”场景,机器不光能反应,还能像人一样一步步推理。这就意味着,在那些很罕见的危险情况下,系统不光能干得漂亮,还能让人看懂它是咋想的。虽说绝对安全的验证还得花不少时间,但这绝对是往更高级别智能迈了一大步。 这东西是用了百亿参数堆起来的,专门用来搞因果链推理。要想做到L4级那种完全不用管的自动驾驶,理解物理世界的因果关系太关键了。Alpamayo 就是想模拟人类驾驶员的脑子,去猜那些行人或者其他车会咋动。 英伟达这次不光开放模型代码,还把仿真工具 AlpaSim 和一大堆路况数据都给放出来了。有了这些东西,那些没多少资源的小公司就能省好多事儿,不用再费力从头造轮子了。 业内人士都觉得这招高啊,说白了就是搞了个“师徒模式”。英伟达把 Alpamayo 当老师免费送出去,各家车企拿自家的数据去“蒸馏”一下,就能搞出适合自家车的“学生模型”。这样一来,门槛和成本都降下来了,大家都能快点把车做出来。 梅赛德斯-奔驰现在已经宣布要在新款 CLA 上用这套技术了。别看数据还在各家手里捏着,那些优化的反馈都会回到英伟达的社区里去喂给工具链(比如 NVIDIA NeMo)和硬件平台(像 DRIVE AGX Hyperion)。这就形成了个好循环,硬件和软件互相推着往前走。 英伟达这次开源可不只是技术分享这么简单,而是要重塑整个生态。他们想让全世界的研发力量都往一个坑里跳,聚到一块儿使劲。这肯定能大大加快高级别自动驾驶的落地速度,也说明了以后的竞争重点不再是拼单个算法或硬件了。 大家都在搞自动驾驶这块儿,现在终于进入了一个靠“开放”来加速“闭环”的新阶段。