当前大模型发展面临的核心挑战是如何在保证性能的前提下,实现参数规模与计算效率的平衡。
传统的模型扩展路径往往陷入参数堆砌的困境,导致部署成本高企、推理速度受限。
阿里巴巴千问团队此次发布的千问3.5-Plus模型,正是对这一问题的系统性解答。
从技术架构看,千问3.5-Plus的创新突破主要体现在三个方面。
其一,模型采用了融合线性注意力机制与稀疏混合专家架构的混合设计,在397亿总参数的框架下,仅激活170亿参数即可完成推理任务,实现了极致的参数效率。
其二,模型引入了自研的门控技术,该技术曾获得全球顶级学术会议NeurIPS 2025最佳论文奖,代表了当前Transformer架构优化的前沿方向。
其三,通过训练稳定性优化和多token预测等系列技术创新,模型在保持与前代旗舰产品千问3-Max相当性能的同时,大幅提升了推理效率。
性能表现方面,千问3.5-Plus在多个权威评测中取得突出成绩。
在MMLU-Pro知识推理评测中得分87.8分,在GPQA博士级难题评测中获得88.4分,在IFBench指令遵循评测中以76.5分刷新纪录。
在Agent智能体和搜索能力评测中,该模型表现均超越国际同类产品。
这些成绩表明,通过架构创新而非简单的参数堆砌,同样可以实现性能的突破。
值得关注的是,千问3.5-Plus实现了从纯文本模型向原生多模态模型的代际跃迁。
相比前代产品基于纯文本token的预训练方式,新模型采用视觉与文本混合token预训练,并大幅扩充了中英文、多语言、STEM和推理等领域的训练数据。
这一转变使模型在图像理解、文档识别、视频分析等多模态任务中获得了显著能力提升,在MathVision、RealWorldQA、CC_OCR等多个多模态评测中均取得最佳性能。
从应用价值看,千问3.5-Plus的推理效率提升具有重要意义。
在32K上下文场景中,推理吞吐量可提升8.6倍;在256K超长上下文情况下,最大提升至19倍。
同时,部署显存占用降低60%,API价格每百万token仅0.8元。
这些指标的改善直接降低了企业用户的部署成本和运营成本,使大模型技术更易被广泛应用。
在Agent智能体应用方面,千问3.5-Plus也实现了新的突破。
模型可自主操作手机与电脑,在移动端支持更多主流应用指令,在PC端可处理跨应用数据整理、自动化流程执行等复杂多步骤操作。
阿里巴巴团队构建的异步强化学习框架使端到端加速达到3至5倍,并将插件式智能体支持扩展至百万级规模,为自动化办公和智能助手应用奠定了基础。
从产业生态看,千问3.5-Plus已在千问APP和PC端接入使用,开发者可通过魔搭社区、HuggingFace等平台下载模型,或通过阿里云百炼获取API服务。
这种开放的生态策略有利于加速模型在各行业的应用落地。
大模型发展已从“比拼规模”逐步走向“比拼效率与落地”。
能否以更低成本提供更稳定的多模态与智能体能力,直接关系到技术红利能否转化为产业升级与社会服务效能。
面向新一轮竞争窗口期,坚持开放创新与安全可控并行,推动评测、工程与应用协同进化,才能让前沿技术真正成为可持续的生产力。