广发证券最近发布了一份研报,把SRAM在AI推理中的提升作用给突显出来了。智通财经APP这就了解到,广发证券在研报里提到,在大模型的应用中,依靠外置HBM其实会带来不小的问题。SRAM可以明显减少权重与激活数据访问时的延迟和抖动,这样一来就会改善Time-to-First-Token和尾时延的表现。目前Groq和Cerebras都相继推出了基于SRAM的AI芯片,这说明SRAM架构已经走进了主流大厂的视野里。 给大家举个例子来说明一下SRAM的优势。英伟达在2025年12月的时候花了200亿美元买了Groq的知识产权非独家授权,包括他们的LPU和配套软件库。而OpenAI跟Cerebras签了一份100亿美元的合同,要部署多达750兆瓦的定制AI芯片。这种动作就把大家的注意力全都吸引到SRAM架构上面去了。 再来看看具体的数据吧。Groq官网上提到他们单芯片内集成了约230MB片上SRAM,存储带宽高达80TB/s。根据Artificial Analysis的测试结果来看,Llama3.3 70B模型在不同上下文长度下都能保持稳定的推理速度达275-276token/s,比其他平台快很多。而Cerebras的WSE-3芯片集成44GB SRAM,片上存储带宽21PB/s。 大家也知道OpenAI在2026年2月推出了一个基于Cerebras Systems AI加速器上的模型GPT-5.3-Codex-Spark预览版吧?这个模型支持超过1000tokens/s的代码生成响应速度,给用户提供了更具交互性的编程体验。 从这些数据来看,AI产业正在步入一个Memory时刻,这个Memory时刻意味着AI的能力边界正在不断扩展。像AI Agent这样的应用也在加速落地呢。所以这次肯定要关注那些跟AI记忆相关的基础设施了。 不过也得提醒大家注意一些风险提示哈:AI产业发展可能不如预期、AI服务器出货量可能达不到预期、国产厂商技术和产品进展可能跟不上节奏等问题还是得注意一下哦!