当搜索遇上智能体记忆:2026年AI搜索的新范式

2026年4月23日

89

337

当搜索遇上智能体记忆:2026年AI搜索的新范式

2026年的AI领域,一个关键转折正在悄然发生。当大模型的能力不断突破,当Agent系统开始承担更复杂的连续任务,一个长期被忽视的问题终于浮出水面——智能体该如何记忆?正如一位从业者在演讲中提到的:当你使用AI助手一周、两周后,你期望它越来越懂你、越来越记得住你的偏好。然而现实是,即便底层模型再强大,当前的记忆机制依然存在明显缺陷。

概述

记忆的困境在日常使用中暴露无遗。演讲者分享了一个亲身经历:他向AI助手询问"之前做的911图表",助手的第一反应是询问911是指恐怖袭击还是其他事件。事实上,911是他提到的保时捷车型代号。问题出在哪里?调查显示,尽管检索链路完整,但Query转译环节出了偏差——中文被直译成"911 chart graph visualization",进而进一步偏离为"September 11th chart visualization"。这个案例揭示了一个关键问题:记忆系统整条链路都可能正确,但只要Query构造失误,整个检索就会失败。

从关键词到向量:搜索技术的演进脉络

理解智能体记忆,首先要回顾搜索技术的发展轨迹。2009年前后,关键词搜索主导市场,BM25、TF-IDF、倒排索引构成技术基础。2015年起,向量搜索崭露头角,Facebook的Faiss、Milvus等工具相继出现。但向量搜索也有自己的问题:过度召回导致语义过于柔软,哪怕Query与文档完全不相关,只要分数接近就会被召回。技术演进最终走向混合搜索,结合关键词的精确性与向量的语义理解能力。2018年Transformer统一了深度学习架构,BERT成为文本编码标配。2022年ChatGPT发布后,RAG技术迅速崛起,搜索与生成的边界日益模糊。有趣的是,有研究者指出:搜索是过拟合的生成,生成是欠拟合的搜索,二者本质上是互补关系。

搜索是过拟合的生成,生成是欠拟合的搜索。它们俩其实是对偶的。

“技术观察者”

长时程任务:记忆成为命门

进入2025年,DeepSeek R1展示的Reasoning+Test-time Compute范式引发行业关注,Deep Research概念随之兴起——搜索可以边推理边检索,不断迭代最终生成完整报告。2026年,业界对Agent的期待进一步升级:不再满足于生成一份报告,而是希望Agent能自主运行三四小时甚至更长时间无人值守。然而这带来了根本性挑战:让一个Agent工作4小时,中间可能需要搜索数百次、阅读数百份文档、在失败路径上回退数十次。这些经历不可能全部塞入有限的Context Window,系统必须具备持久记忆能力来存储、检索和更新关键信息。当目标变成长时程任务,持久记忆就从可选项变成了命门。

展望:从搜索底座到智能记忆体系

记忆系统还面临一个关键挑战:什么时候该遗忘?演讲中引用了Andrej Karpathy的精准描述:当前Agent系统最致命的问题是"不会选择性遗忘"。人脑会自然遗忘无关信息,否则将不堪重负;Agent若不具备选择性遗忘能力,同样会被自己的历史记忆所拖累。典型案例是用户初次使用AI助手时,往往会倾注大量个人信息,系统随后会频繁提及早已过时的想法。然而人是会变化的,有些事早已放弃,有些习惯已经改变。更棘手的是"冷启动悖论":新Agent使用体验往往较好,因为用户期望低;而长期使用后期望提升,记忆系统的缺陷却日益明显。这种设计缺陷正在蚕食用户对AI的信任,影响整个行业的用户留存。

如有侵权,请联系删除。

Related Articles

联系我们 获取方案
小墨 AI