Meta 把向 NVIDIA 买数百万块 GPU 的事情敲定了。当地时间 2月17日,NVIDIA 和 Meta 签了份多年的合约,想把本地服务器、云计算还有 AI 基础设施都包进去。为了跟上公司的 AI 计划,Meta 要把数据中心做大做强,专门用来做模型训练和推理。这一回把 NVIDIA 的 CPU 也用上了,再加上 Blackwell 和 Rubin 这两种 GPU 给装进去。而且还得把 Spectrum-X 以太网交换机塞到 Facebook 用的那个开放系统平台里头。黄仁勋就说,现在还没有哪家像 Meta 这样大动作去搞 AI,能把最前沿的研究和实实在在的工业机器结合起来,伺候好几十亿的用户。他想把 NVIDIA 整套的 CPU、GPU 网络和软件都凑一块儿,把完整的平台给到 Meta 的那帮工程师和研究员,让他们能把下一代 AI 的根基打牢。扎克伯格也高兴得不行,说要借着 NVIDIA 那个 Vera Rubin 平台去建更牛的集群,以后给全世界的人都送个私人的超级大脑。 双方接着还要把基于 Arm 的 Grace CPU 用在数据中心生产里,好把性能提一提。这是 Meta 长久以来的路子,想多搞点节能的 AI 计算。这次合作算是 Grace 头一回大规模地往外发。 接着他们还在弄 NVIDIA Vera CPU,估计要等到 2027 年才能大规模用上。这样能进一步扩大 Meta 的节能 AI 地盘,也能把 Arm 那个大生态再撑一撑。 Meta 还会用 GB300 这套行业里顶尖的系统,然后弄出一套统一的架构来,不管是自己的数据中心还是在别的云服务商那里都能跑。这么做不仅操作简单了,性能和扩展性也跟着上去了。 此外他们也采用了 Spectrum-X 网络平台来做 WhatsApp 的私密处理。这东西提供了一种 AI 级别的网络带宽,延迟低得很还能管着利用率。用户消息经过 Confidential Compute 这么一处理,就能在保证数据不泄密的情况下开 AI 功能了。 接下来两家的团队要一块儿设计 Meta 下一代的 AI 模型。他们把 NVIDIA 的全栈平台跟 Meta 平时干活的那些大工作量结合起来。这样才能给全球几十亿用户用上的新功能带来更高的性能和效率。