阿里巴巴近日宣布开源新一代大模型千问Qwen3.5-Plus,这款模型在性能上已与Gemini 3 Pro比肩,成为全球开源模型领域的佼佼者。Qwen3.5-Plus不仅在底层架构上实现了全面革新,更在参数规模与效率之间找到了新的平衡点——总参数达3970亿,但激活参数仅170亿,却超越了万亿参数的Qwen3-Max模型。其显存占用降低60%,推理效率显著提升,最大推理吞吐量可提升至19倍,且API价格每百万Token低至0.8元,仅为Gemini 3 Pro的1/18,为开发者提供了更高性价比的选择。
与前代模型相比,千问3.5完成了从纯文本到原生多模态的跨越式发展。其预训练数据不再局限于文本,而是融入了视觉与文本混合token,并大幅增加了中英文、多语言、STEM及推理等数据。这一变革使模型具备了更密集的世界知识和推理逻辑,在推理、编程、Agent智能体等全方位基准评估中表现优异。例如,在MMLU-Pro知识推理评测中得分87.8分,超越GPT-5.2;在博士级难题GPQA测评中斩获88.4分,高于Claude 4.5;在指令遵循IFBench中以76.5分刷新纪录;在通用Agent评测BFCL-V4、搜索Agent评测Browsecomp等基准中,均超越Gemini 3 Pro和GPT-5.2。
原生多模态训练为千问3.5带来了视觉能力的飞跃。在多模态推理、通用视觉问答、文本识别、空间智能、视频理解等权威评测中,该模型均取得最佳性能。其空间定位推理和带图推理能力显著增强,推理分析更精细;支持长达2小时的视频直接输入,适用于长视频内容分析与摘要生成;同时实现了视觉理解与代码能力的原生融合,可将手绘界面草图转为前端代码,或通过截图定位并修复UI问题,真正将视觉编程转化为生产力工具。
千问3.5的性能突破源于对Transformer架构的创新。千问团队自研的门控技术曾获2025 NeurIPS最佳论文,该技术被融入混合架构中,结合线性注意力机制与稀疏混合专家MoE模型,实现了397B总参数激活仅17B的极致效率。通过训练稳定优化和多token预测技术,Qwen3.5在保持与Qwen3-Max性能持平的同时,进一步提升了推理效率:在32K上下文场景中推理吞吐量提升8.6倍,在256K超长上下文情况下最大提升至19倍。
这一成果得益于阿里云AI基础设施的支持。千问3.5在文本、图像、视频混合数据训练吞吐量上接近纯文本基座模型水平,大幅降低了原生多模态训练门槛。通过FP8、FP32精度应用策略,训练稳定扩展至数十万亿token时,激活内存减少约50%,训练速度提升10%,进一步节约了成本。基于顶级视觉能力,千问3.5在Agent应用领域实现新突破:可自主操作手机与电脑,支持更多主流APP与复杂指令,在PC端能处理跨应用数据整理、自动化流程执行等任务;团队构建的异步强化学习框架将端到端加速3至5倍,插件式智能体支持扩展至百万级规模。
1月15日,千问App发布全球首个消费级AI购物Agent,春节期间6天内协助用户完成1.2亿笔订单,首次实现大规模真实世界任务执行与商业化验证。随着Qwen3.5-Plus的接入,千问APP在工作与生活场景中的服务能力将进一步拓展。自2023年开源以来,阿里已发布400多个千问模型,覆盖全尺寸、全模态,全球下载量突破10亿次,单月下载量超过DeepSeek、meta、OpenAI等企业2至8倍的总和,衍生模型超20万,成为开发者最友好的开源生态。为满足不同国家需求,千问3.5扩展支持201种语言,词表从15万增至25万,小语种编码效率提升最高60%。目前,千问APP、PC端已接入Qwen3.5-Plus,开发者可通过魔搭社区、HuggingFace下载模型,或通过阿里云百炼获取API服务。阿里计划后续开源不同尺寸、功能的千问3.5系列模型,性能更强的Qwen3.5-Max也将于近期发布。