从Claude Code进化史读懂Coding Agent的终局逻辑

2026年4月17日

100

637

从Claude Code进化史读懂Coding Agent的终局逻辑

2026年3月,旧金山某大厂工程师在技术论坛匿名发帖:“我基本上成了Claude Code的agent。经理告诉我做什么,我转达给Claude Code,它完成,我Review,我提交。”这句话描述了一种正在规模化发生的人机协作模式。然而更值得关注的是,仅仅一个月后,Claude Code推出Routines功能——配置好规则后,它能自己监听事件、自己触发任务、自己完成、自己提交报告,全程跑在云端,连笔记本关机都不影响工作。“转达人类”这个角色,正在被系统性地自动化。

Claude Code的四个进化阶段

很多人第一次接触Claude Code,会下意识把它理解成“更聪明版的GitHub Copilot”。这个对比不算错,但大幅低估了两者之间的本质差异。GitHub Copilot的定位是代码补全,它坐在IDE里观察你正在输入的上下文,在合适的时机给出下一行或下一段的建议,整个交互模型是“你输入,它提示,你决定用不用”——本质上是一个被动的、单步推断工具。 Claude Code的定位则是Agentic编码工具,更准确地说,是一个拥有本地开发环境操作权的AI Agent。它能读取整个代码库、跨文件编辑、执行Shell命令、调试报错、提交Git、发起PR,在你去开会的时候继续跑任务,回来告诉你结果。它是主动的、目标驱动的、能自我纠错的。两者的差别可以这样理解:Copilot是旁边那个会提示“下一步可以这样”的导航App,Claude Code是你雇来的工程师,你说目标,他自己想办法到达。

从产品到平台的跨越

Claude Code从内部实验到ARR 25亿美元,只走了不到两年。这段历史值得仔细拆解,因为每个阶段都不只是功能迭代,而是产品范式的跃迁。 第一阶段(2024年9-11月)是内部实验阶段。起点是Anthropic工程师Boris Cherny的一个侧项目:让Claude模型直接访问本地文件系统、执行Bash命令。技术门槛不高,但洞察相当犀利。Cherny发现,2024年底的Claude 3.5 Sonnet已经天然具备成为“真正开发伙伴”的潜力,不需要额外训练它就能自主读懂代码库、追踪依赖关系、理解整体架构。他把这个现象命名为“Product Overhang(产品悬垂)”:模型能力已超出当前产品形态所能承载的上限,新形态的出现只是时间问题。内部测试数据很能说明问题:Dogfooding第一天,20%的工程师开始用;第五天,50%;到2024年11月,Anthropic内部80%以上的工程师依赖这个工具,平均每天产出5个Pull Request,远超正常水平。 第二阶段(2025年2-8月)是公开发布与商业验证阶段。2025年2月24日,Claude Code研究预览版

今天,编程问题实际上已经被解决了。软件工程师这个头衔会消失,取而代之的是建造者或产品经理。

“Boris Cherny”

企业部署的关键一环:Harness Engineering

第三阶段(2025年9-12月)是从产品走向平台的关键时期。2025年9月,Anthropic开放Claude Agent SDK,把Claude Code底层的Agent引擎封装成开发者可直接调用的基础设施。与此同时,MCP(模型上下文协议)在2025年12月被捐赠给Linux基金会旗下的Agentic AI Foundation。到2026年初,苹果在Xcode中原生支持MCP,OpenAI在ChatGPT中接入MCP——竞争对手主动采纳你的协议,这是生态级认可的最高形式。 这一阶段还有一个容易被忽视的技术里程碑:自动上下文压缩(Memory Compaction)。长时运行一直是Agentic工具的核心痛点,任务越长上下文越污染,模型开始“记性变差”甚至产生幻觉。压缩技术的引入,让Claude Code能处理数小时乃至数天的连续任务,从短期助手跃升为真正意义上的“agent”。 第四阶段(2026年至今)是云端化与多Agent编排阶段。2026年3月,Computer Use全面集成,Claude Code开始直接操作屏幕,SWE-bench得分达到80.8%。4月,

三家玩家,三种终局

Claude Code能够快速被广大组织及个人所接受,除了Agent Skill,另一个关键因素就是Harness Engineering(测试线束工程)。AI Agent能力再强,企业在部署时都绕不开一个问题:我怎么知道它在我的场景里好不好用?怎么测试它的行为是否符合预期?怎么在它出问题之前发现问题? SWE-bench是目前最知名的公开版Agent Harness:给Agent提供真实的GitHub Issue,让它生成修复方案,通过自动化测试套件评分。但大多数企业部署Coding Agent时,并没有自己的Harness。他们的评估方式往往是:让工程师试用两周,问问感觉怎么样。这个方法不是没价值,只是极其不可靠。 企业需要自己的Agent Harness有三个原因:第一,每个企业的代码库、技术栈、业务逻辑都不同,公开基准测试测的是通用能力,不代表在你的私有代码库上表现相同。第二,没有Harness,你不知道模型升级是在帮你还是在坑你。AI厂商经常悄悄更新模型,你今天用起来不错,下个月版本一迭代,某些任务的表现可能悄然退步。如果没有自动化评估基线,这种退步可能要几个月后

如有侵权,请联系删除。

Related Articles

联系我们 获取方案
小墨 AI