问题——推理需求增长与供给结构不匹配 随着大模型应用从训练转向部署阶段,实时问答、搜索增强、智能体调用等推理场景需求快速增长。业内普遍预测,未来几年推理将成为AI主要工作负载。然而,当前以GPU搭配高带宽存储的通用加速方案,低时延、高并发和成本敏感场景下存在性能过剩和成本过高的问题。这促使市场对专用推理加速器的需求增加,算力供给结构调整压力加大。 原因——多重因素推动变革 技术上,SRAM和DRAM各有优劣。SRAM速度快但成本高,难以完全替代适合大规模参数存储的DRAM。更可行方案是结合两者优势:用SRAM优化推理时延,同时保留GPU和HBM用于训练。 市场层面,云服务商和互联网巨头正通过自研或引入多元算力来降低推理成本。部分企业已计划将推理负载分流到其他平台,表明模型效果趋同后,竞争重点已转向推理效率、成本和稳定供应。 监管上,全球对科技并购和算力基础设施的反垄断审查日益严格。企业需要寻找合规的合作方式,以降低审批风险和合规成本。 影响——产业链面临重构 首先,算力市场将更明确分工:训练平台继续高端化,推理平台则向专用化和规模化发展。训练端竞争仍集中在GPU、互联和存储,而推理端更关注时延、能效和成本。 其次,存储需求结构可能改变。虽然HBM在训练中仍不可替代,但推理端可能通过优化设计降低对外置高带宽存储的依赖。 最后,行业门槛提高,创业公司面临更大挑战。随着头部厂商完善产品线并构建生态优势,中小企业若缺乏资源和客户支持将更难立足。 对策——产业需要协同发展 应用企业应评估不同算力的性价比和供应安全,实现多元化布局,同时通过技术优化提高资源利用率。 芯片厂商需重视系统级优化,包括编译器、算子库等软件生态建设。同时要关注合规要求,降低跨境经营风险。 上游供应商应预判需求变化,在封装、存储架构等关键领域持续投入,适应训练和推理并行发展的新趋势。 前景——算力竞争进入新阶段 未来算力竞争将不再是单一芯片的比拼,而是训练平台、推理平台、软件生态和交付能力的综合较量。训练端将向超大规模发展,推理端则加速专用化和规模化。能否在不同领域建立成本优势和生态粘性,将成为企业竞争力的关键。
从通用计算到专用化演进是技术和市场共同推动的结果。推理需求增长正促使算力供给从追求规模转向注重效率。产业链各方既要把握专用推理带来的机遇,也要应对生态重构的挑战。在合规前提下实现技术创新和生态协同的企业,将在下一轮竞争中占据优势。