问题——从“模型领先”到“价值兑现”仍有落差。 近两年来,阿里大模型研发、开源生态、云端服务与应用探索各上持续投入,通义系列模型的能力与影响力不断提升。但行业竞争加剧、企业客户预算更趋理性、应用入口争夺激烈的背景下,技术优势向用户规模、云端收入和业务提效的转化并不顺畅:一上,面向消费者的应用更依赖流量入口与产品化能力;另一方面,面向企业的模型即服务(MaaS)更看重稳定性、成本与交付效率;同时,开源路线强调生态扩张与能力上限,商业服务则要求可量化的收入增长。多目标并行之下,如何协同与取舍成为现实挑战。 原因——链路过长、角色叠加与目标不一致带来执行摩擦。 据悉——ATH事业群成立后——阿里对AI板块进行整合,尝试用统一框架打通“创造、交付、应用”的全流程。但在落地过程中,技术链路的关键岗位一度承担过多职责,模型研发、云基础设施、产品化落地等任务交织,容易导致管理跨度过大、资源投入难以聚焦。此外,模型团队稳定性、云侧交付效率,以及集团内部业务对自研模型的规模化调用程度,都会直接影响商业化节奏。在外部竞争与内部增长压力并存的情况下,组织需要更清晰的职责边界与更强的工程化能力来降低协作成本。 影响——强化分工有助于把“能力”转化为“可用、可卖、可规模化”。 本轮调整体现出对全链条的再梳理思路: 其一,模型研发端更聚焦。通义实验室升级为通义大模型事业部,由周靖人专职负责,有利于把精力集中到模型路线、工程迭代与团队建设上,集中资源巩固核心模型能力并提升研发节奏。 其二,云基础设施端突出“稳”和“规模”。李飞飞出任阿里云CTO,统筹云技术与AI云基础设施建设,导向更明确:云侧关键任务是把算力、存储、网络、数据库等底座能力做强做稳,使大模型训练与推理的成本、效率和可靠性可控,从而支撑企业级交付与大规模调用。 其三,推理交付端补齐“中台引擎”。吴泽明新增负责AI推理平台,直接对应行业普遍面临的推理成本与性能瓶颈。推理平台是将模型能力稳定“搬运”到各业务场景的关键枢纽,关系到响应时延、并发能力、资源调度与故障容错,也决定集团内部业务是否愿意、是否能够大规模调用自研模型。 其四,决策与统筹机制继续加强。集团技术委员会成立并由吴泳铭担任组长,意味着在大模型路线选择、资源配置与跨业务协同上,将形成更集中、更可执行的决策机制,减少重复建设与内耗。 对策——以“分层负责+关键节点直管”推动商业化闭环。 从公开信息看,阿里将AI链路拆分为更清晰的层级并配置专职负责人:模型研发端、云基础设施端、推理平台端各司其职;面向应用侧,千问、悟空等业务继续推进产品化;而MaaS及AI创新等与变现和新增长更涉及的的板块,在负责人尚未完全对外披露的情况下,由集团层面加强统筹,有助于在商业化关键阶段保持资源调度的集中度与响应速度。 在当前财务与市场环境下,企业更看重可落地、可持续的投入产出比。对阿里而言,推动集团内部业务更广泛使用自研模型,形成“内部验证—规模调用—对外复制”的路径,同时在MaaS上完善行业解决方案、交付体系与计费模式,可能是缩短从技术到收入周期的关键抓手。同时,通过推理平台和云底座优化成本结构,也将直接影响毛利与利润表现。 前景——AI竞争进入“工程化与商业化”深水区,组织能力将决定兑现速度。 当前大模型行业已从比拼参数规模、榜单成绩,逐步转向比拼推理效率、稳定交付、应用场景渗透与商业模式成熟度。阿里此轮调整发出以工程体系和组织协同推动“全链条可规模化”的信号:模型要更强,云要更稳,推理要更省,应用要更可持续。下一阶段的关键,在于能否形成可复制的行业方案与可持续的收入增长,同时在集团内部实现更高比例的规模化调用,进一步反哺模型迭代与平台优化。若上述闭环跑通,阿里AI业务有望从“能力展示”走向“价值兑现”。
大模型进入产业深水区后,胜负往往不取决于单点突破,而取决于能否把技术能力做成可交付、可复制、可持续的系统工程;以清晰的责任分工推动“Token”链路高效运转,既是对内部协同效率的重新校准,也是对外部竞争与商业化压力的直接回应。未来,真正能穿越周期的,将是把创新速度、工程质量与商业回报统一起来的长期能力。