国产编程模型新突破:Qwen 3.6-Plus双线实测深度解析

2026年4月26日

39

404

国产编程模型新突破:Qwen 3.6-Plus双线实测深度解析

当AI Agent被放入真实项目场景时,常常面临“眼高手低”的困境:它能启动任务,但执行过程反复中断,多轮对话后上下文丢失,结果前后不一致。面对非标准需求时,工具调用也频频失误。这一痛点的根源不在于Agent的外壳设计,而在于底层大模型本身缺乏稳定可靠的“执行力”和“决策力”。4月7日,阿里云通义千问Qwen 3.6-Plus正式上线,在Terminal-Bench 2.0编程测试中超越Claude Opus 4.5,拿下全球编程模型榜首。但单纯依靠Benchmark分数难以说明问题,真正的考验在于真实复杂工作场景下的表现。

教育改革方案设计:复杂决策能力实测

本次测评摒弃传统单点Benchmark模式,采用两套真实复杂任务构建“双线考核体系”,分别从“决策“与”执行“两个维度全面评估Qwen 3.6-Plus的智能体能力上限。第一条测试线聚焦复杂决策场景,采用具备主动执行能力的代表性智能体框架OpenClaw,任务要求模型设计一套教育改革试点实施方案,涉及800万预算、6个月周期、20所试点学校、城乡数字化差异、教师负担、家长隐私担忧等多重约束,并需要应对试点过程中突发的舆论危机与设备不足问题。第二条测试线聚焦编程工程能力,使用开源智能编程工具OpenCode,要求模型完成一个功能完备的AI TODO Board全流程开发,从需求理解到完整项目交付,覆盖任务拆解、代码实现、测试编写、问题修复等完整工程环节。

AI TODO Board开发:编程工程能力考核

在AI TODO Board全流程开发任务中,Qwen 3.6-Plus表现得像一位经验丰富的架构工程师和UI设计师。项目启动阶段,模型首先进行需求拆解,制定了包含16个步骤的清晰实现计划,从项目初始化、依赖安装到核心功能开发、测试编写,每一步均以可视化进度条实时呈现进展。开发过程中,模型严格遵循软件工程规范,依次完成从任务拆解到测试交付的全链路环节。在代码实现层面,模型基于Radix UI与shadcn/ui搭建了现代化UI组件库,开发了支持中英文时间和优先级智能提取的自然语言解析器,利用Zustand完成状态管理。在问题修复环节,模型针对移动端横向溢出、时间解析不稳定、滚动体验差、筛选逻辑异常等问题完成了“定位-修改-验证“的完整闭环,每一次修复均配套新增测试用例验证。测试环节也是本次测评的核心亮点:模型针对核心模块编写了覆盖23个自然语言解析测试和14个状态管理测试,最终实现项目零核心bug、测试全通过的高质量交付状态。

全球最强编程模型,中国造。

“行业观察”

性能对比与参数效率优势

测评完成后,Qwen 3.6-Plus在一些关键指标上展现出明显优势。在Terminal-Bench 2.0测试中获得61.6分,超越Claude Opus 4.5的59.3分;在Claw-Eval中获得58.7分,极接近Claude Opus 4.5的59.6分,在真实世界多步Agent任务中进入第一梯队;在SWE-bench Verified上达到78.8%,处理大多数企业级Bug修复和代码重构已绰绰有余。值得关注的是,Qwen 3.6-Plus在参数效率上表现突出,横向对比GLM-5、Kimi-K2.5等模型,参数量仅为后者的1/3至1/2,却实现了更优的性能表现。成本方面,输入约为2元/百万tokens,输出约为12元/百万tokens,约为Claude的1/10。这意味着在单位成本下,Qwen 3.6-Plus能够提供更高的有效智能输出。

实测短板与改进空间

在实测过程中也观察到Qwen 3.6-Plus的一些不足之处。首字延迟(TTFT)方面,免费预览版首字出现时间有时高达11秒,在需要快速反馈的场景下会破坏开发者心流。在极高复杂度任务中,模型有时会陷入重复输出同一段内容的输出循环。此外,API频率限制在高频Agent自动化任务中容易触发,可能中断长流程执行。在安全相关任务(权限管理、加密实现)上成功率仅为43.3%,不建议在涉及高安全级别的自动化流程中单独使用。

如有侵权,请联系删除。

Related Articles

联系我们 获取方案
小墨 AI