英伟达打算拿出260亿美元,争取在五年内把自家的开源AI模型搞成全球最强的那个。这次连线(Wired)放出消息说,英伟达给了260亿美元用来做这件事,把自己从单纯卖芯片的厂商变成能和OpenAI、DeepSeek正面硬刚的AI实验室。英伟达公司现在正从有好生态的芯片商,转型成能跟OpenAI、DeepSeek全面较劲的顶尖实验室。而且这些模型深度适配了自家硬件,这就给英伟达在AI芯片上的老大地位再加了一把锁。技术上走了条中间路线,“开放权重”就是把模型参数拿出来免费给大家用,不过不一定是那种完全免费的协议。开源权重模型就是把决定模型行为的关键参数给放出来,开发者能自己在电脑上跑或者改一改。这跟OpenAI的封闭模式不一样,也有别于Meta旗下Llama系列那种全开源的做法。现在企业都想要能看清楚、还能随便改的模型,要是英伟达能搞出专为自家硬件优化的开放权重模型,那技术壁垒就很高了。这笔260亿美元会给开发模型、算力基建、招人还有生态建设全部都包圆了。相比之下,OpenAI练个GPT-4才花了30亿美元左右。这么看下来,靠自己的算力资源和过去两年偷偷组建的队伍,英伟达有足够的钱去搞多个前沿大模型。文件显示这笔钱会在未来18到24个月慢慢花出去,估计首批模型会在2026年底或者2027年初亮相。分析师说要是英伟达在保住硬件第一的同时还拿下基础模型市场10%的份额,三年里每年能多赚500亿美元。 这次开源战略正好卡到了行业的痛点上。美国那些大公司像OpenAI、Anthropic和谷歌的核心模型都在闭源状态,只让人在云上用;Meta也有暗示以后可能要收紧开源策略。反倒是DeepSeek、阿里巴巴这些中国公司靠着免费开源策略吸引了一大堆开发者。 英伟达的深度学习研究副总裁Bryan Catanzaro说了,推动开源生态发展对咱们有大好处。往后看英伟达的模型版图还在飞速扩张呢。公司最近刚搞定一个参数高达5500亿的超大模型预训练工作。 企业生成式AI软件副总裁Kari Briski还特别强调了一下,公司搞这些前沿模型不光是为了测算力强度,更是为了给存储、网络还有超算级的数据中心来个极限压力测试,从而给下一代硬件的发展方向指明路子。