问题:AI热度高企,但“上线难、规模难、持续运营难” MWC 2026现场,AI议题贯穿通信网络、终端设备与云数据中心等多个论坛。TelecomTV的一场对话中,英伟达与超微对应的负责人围绕“企业如何把AI真正用起来”展开讨论。多方共识是:过去两年,企业AI项目数量快速增长,但不少仍停留在概念验证或局部试点阶段,距离可复制、可运营、可审计的生产系统存在差距。英伟达上援引行业调查称,约89%的电信运营商计划未来一年增加AI投入,显示资本与需求端意愿充足,但落地链条尚未完全打通。 原因:流程改造、人才断层与系统复杂度叠加 一是传统业务流程并非为AI设计。AI要进入生产环节,往往牵动数据治理、权限边界、业务逻辑重构以及组织协同机制调整,改造成本高、周期长。二是人才与工程能力不足。数据科学、模型工程、运维与安全合规等能力缺一不可,许多企业难以在短时间内搭建完整团队,导致“能试验、难复制”。三是工具多而集成难。业界已提供模型开发与推理服务等多种软件栈与平台工具,但从选型到部署仍需与存量IT、网络架构和数据系统深度耦合,工程复杂度不容低估。 影响:算力从“资源”变为“产能”,AI基础设施外溢为国家议题 与会人士指出,AI正在改变数据中心的定位:传统数据中心以通用计算与存储为主,而面向大模型训练与推理的新型设施更强调“以更低成本、在更稳定能耗约束下输出更多有效计算结果”。此外,“主权AI”被频繁提及,核心指向是国家在模型、算力与数据处理能力上的自主可控。其背后包含三重现实诉求:其一,数据主权与安全合规压力上升,医疗、金融、政务等领域对数据跨境与第三方依赖更为敏感;其二,语言文化与本地知识需要更贴近的模型能力,小语种、地方政策与行业知识往往依赖本地化训练与评测;其三,AI被视为新一轮产业竞争的重要抓手,各国希望以本地算力与生态培育带动创新创业与就业增长。 对策:从“单点采购”转向“平台+集成+客户”的系统工程 针对落地瓶颈,业界正在形成更清晰的分工路径:平台厂商提供软硬件参考架构与模型服务能力,系统集成商完成跨设备、跨网络、跨数据域的工程交付,企业客户则聚焦业务场景与数据资产治理。以英伟达为例,其在模型开发、部署与推理环节提供相关工具链与服务框架,并通过参考架构降低部署门槛;超微等服务器与整机厂商则强调以机架级、集群级交付提升建设效率,缩短从采购到上线的周期。多方判断,未来AI项目成功与否,不仅取决于模型能力,更取决于“数据—算力—网络—运维—安全”的全栈协同,以及可持续的成本结构。 前景:“AI工厂”将推动数据中心重构,分布式与绿色约束同步强化 随着模型参数规模迈向更高量级,训练与推理对GPU集群、高速互联网络与数据吞吐提出更高要求,算力形态正由“单机服务器”加速转向“机架级系统+集群级调度”。这意味着数据中心在供电、散热、机房布局与网络拓扑上都需重新设计,传统以通用负载为中心的建设思路将被改写。与此同时,运营商与大型企业对边缘侧、园区侧分布式部署的兴趣提升:一上可降低时延、满足本地数据合规;另一方面也对运维自动化、能效管理与安全隔离提出更高标准。可以预见,未来一段时期,“算力产能化”“基础设施系统化”“数据合规本地化”将共同定义AI产业的新竞争维度。
AI的深入发展正在重塑全球产业生态;从试验到规模化应用,这场技术革命考验着各国的创新能力和发展战略。未来如何在安全可控的基础上实现开放合作,平衡创新与伦理,将成为决定AI成败的关键。