阿里这边刚上线了两款新模型,一个叫Qwen3.5-Plus,另一个叫Qwen3.5-397B-A17B。后者这个397B-A17B,给它定义成“开源旗舰”。AI帮咱们看看阿里云这次放的大招,把3970亿参数的旗舰版拿出来了,这推理效率一下子猛增了19倍,还支持201种语言呢,用的混合架构技术让人眼前一亮,直接给下一代智能体铺了路。消息来自IT之家,下午的时候,阿里在chat.qwen.ai这个页面悄悄把这两个模型都放出来了。IT之家看了官方介绍才知道,Qwen3.5 Plus是Qwen 3.5系列最新的大语言模型,而Qwen3.5-397B-A17B定位成Qwen3.5开源系列里的头牌。这俩模型都能做文本和多模态任务。阿里云这边讲,Qwen3.5这回把底层架构完全变了个样。那个Qwen3.5 Plus版本总共有3970亿个参数,实际用的时候激活的只有170亿个。这性能比那个万亿参数的Qwen3-Max还要强不少。而且部署起来占显存的量直接少了60%,推理速度快得飞起,最大的吞吐量能飙到19倍那么多。至于那个397B-A17B模型,在推理、写代码还有智能体能力这些地方都表现得特别好,能帮开发者和企业大大提升干活的效率。它用的是个很特别的混合架构,把线性注意力(Gated Delta Networks)和稀疏混合专家(MoE)这两样东西拼在了一起,搞出来的推理效率特别高:总参数量有3970亿个,每次往前走一步也只用激活170亿个参数,既保持了能力又优化了速度和成本。再看语言支持这块也变得更全了,从原来的119种扩展到了201种方言。 这次Qwen3.5在能力、效率和通用性三个方面都下了狠功夫:能力上是在更大的视觉-文本语料上练出来的,中文英文还有多语言、STEM学科还有推理方面的数据都加强了不少;效率这块则是基于Qwen3-Next架构做的升级——MoE做得更稀疏了,Gated DeltaNet加上Gated Attention混合注意力也让它更稳更快;通用性上是通过早期的文本-视觉融合还有扩展后的视觉、STEM视频数据实现了原生多模态能力。在规模差不多的情况下比Qwen3-VL还好用一些;语言覆盖从119种变到了201种;词表里的单词数从15万增加到了25万,在大多数语言上都带来了10%-60%的编码解码效率提升。 总的来说就是靠高效的混合架构和原生多模态推理,Qwen3.5给通用数字智能体打下了一个非常坚实的底子。以后的重点不再是堆模型的规模了,而是要转向系统整合:造那种能跨会话一直记住东西的智能体、搞面向真实世界的身体接口还有自我改进的机制。目标是让它能长期自己跑起来、逻辑还得一致。最后是把现在这种以任务为界限的助手变成那种可以长期依赖、可以信赖的伙伴。