从第一性原理重新理解 Agentic Engineering:AI与软件工程的深度融合

2026年4月23日

34

421

从第一性原理重新理解 Agentic Engineering:AI与软件工程的深度融合

软件开发正在经历从“代码补全”到“自主Agent”的深刻变革。在这场变革中,业界流行一种名为 vibe coding 的实践——开发者将需求直接抛给AI,不审查生成的代码,凭直觉接受输出,以最快速度获得"能跑"的结果。然而,这种模式的本质是用速度换取理解和控制,无法承载生产级系统的质量要求。

为什么需要第一性原理思维?

Agentic Engineering 代表了一种截然不同的范式。它不是"让AI替你写代码",而是工程师与AI Agent深度协作的模式——AI不仅是代码的执行者,也是问题分析、方案设计等环节的思考伙伴,但最终的判断和决策权始终在工程师手中。其核心是将工程纪律与AI能力系统性地结合,在保持甚至提升质量标准的前提下,大幅提升研发效能。

三条基本公理奠定理论基础

第一性原理思维是一种将问题拆解到最基本的、不可再分的事实,然后从那里重新构建推理的思考方法。它不是"别人怎么做,我就怎么做"的归纳法,而是回到根本去追问"什么是对的,为什么是对的"的演绎法。 在AI辅助开发领域,我们常见一些隐含假设:"只要把代码喂给AI,它就能理解整个项目"、"AI不适合复杂系统开发"、"AI提效的核心价值是帮人更快写代码"。这些假设来自一线实践的合理总结,但不加条件地接受可能会误导方法论设计。

Engineering的本质是约束优化——在给定的资源、时间、质量等约束下,找到最优可行解。

“Warden”

公理三:人类认知是稀缺资源

软件工程的本质是将人类头脑中模糊的意图,通过一系列信息变换,逐步精确化为机器可执行的代码。从人类意图到自然语言需求、到结构化设计、到形式化代码、再到可执行程序,这条链的每一步都可能引入信息损耗。 AI的引入并没有消除这条链,而是改变了链上各环节的执行方式和损耗率。更重要的是,AI的输出是概率性的——同样的输入可能产生不同的输出,生成的代码可能表面正确但语义偏差,这引入了一种新的损耗类型:不是人类的误解,而是AI的"似是而非"。

公理二:LLM的本质约束

LLM是基于上下文进行概率性推理的系统,具有三个并列的本质特征:输出由上下文决定、输出是概率性的、工作记忆是有限且易失的。 上下文决定性意味着:模型对训练数据之外的知识(团队业务逻辑、内部架构决策、编码规范)掌握为零。概率性意味着:同样的输入可能产生不同的输出,这不是缺陷而是架构层面的本质属性。工作记忆的有限性意味着:会话结束后,讨论结论和决策历史直接丢失,没有跨会话的持久记忆。

如有侵权,请联系删除。

Related Articles

联系我们 获取方案
小墨 AI