自主代理搜索模型(5分钟阅读)

TLDR AI 新闻

摘要

自主代理搜索模型是专门为编排搜索任务而训练的LLM,相比GPT-5等通用模型,它们提供更小、更快且领域特定的替代方案。这些模型通过让智能模型管理整个检索过程,解构了传统的单体搜索栈。

自主代理搜索模型是专门针对搜索训练的专用LLM。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/14 00:11

# 智能代理搜索模型 来源:https://softwaredoug.com/blog/2026/05/11/the-new-agentic-search-models.html 在检索领域,我们对各个 Lego 积木块都很熟悉:嵌入(Embeddings)、重排序器(Rerankers)、查询理解(Query Understanding)、BM25。所有这些都是我们在标准搜索栈中组装起来的组件。 但一股新力量正在崛起:**智能代理搜索模型**。经过专门训练,能够*控制*搜索任务的 LLM。与 GPT-5 及其同类相比,这些模型可能专注于特定任务/领域。它们可以更小、更快,并且更容易部署到我们的搜索基础设施中。 让我们来设定一下场景。 用传统的 Lego 积木块,我们构建出的搜索单体架构大致如下: image.png 这就是我们过去一二十年构建的东西。查询流入系统。我们应用业务规则并对查询进行分类。我们检索一个或多个后端。然后对返回的结果进行后处理和重排序。 整个过程高度人工、程序化且定制化。每个组件都看不到全局——每个部分只关注自己那部分问题(重排序器、查询分类器等),对整体浑然不知。 ## 智能代理搜索编排各组件 智能代理搜索(Agentic search)将各组件解绑,使其能看到整体。基于 GPT-5 或 Sonnet 构建的智能代理知道自己拥有哪些工具。它具备解决用户查询所需的知识/上下文。 智能代理帮助用户:驱动几个简单的检索原语,探索候选结果,返回相关内容。与厚重、单体化的搜索架构不同,底层的搜索工具变成了后端索引的轻量封装。 image.png 与传统堆栈不同,**智能代理能看到整个过程**。它不是一连串简化步骤。相反,模型会利用可用的资源——检索工具、其他子代理或知识库——来引导用户,并编排出一个解决方案。 换句话说,智能代理搜索将检索堆栈解耦。各个组件仍然重要。但整体可以由一个智能模型来管理。 ## GPT-5 并非*真正*了解搜索 前沿实验室的模型(GPT-5、Sonnet 及其同类)在 80% 的常见情况下表现良好。它们能凭常识理解查询。能给出站得住脚的搜索结果。 但真正拉开差距的是最后的 20%。 **这最后的 20% 是什么?** 是用户/领域中不那么显而易见的细节。GPT-5 不知道在我们的家具店中,搜索“bistro tables”实际上意味着“小型户外桌子”,而不是餐厅设备。GPT-5 不知道我们的时尚搜索用户更喜欢深色或素雅图案,而非复杂图案。 为什么会这样?GPT-5 本身不也经过搜索训练吗? 是的,当然。 GPT-5 及其同类将“搜索”理解为*网络搜索*。主流模型期待近乎完美工作的搜索工具,以便为它们提供自身不具备的答案。可惜,我们的搜索不是谷歌。我们在更小、更聚焦的团队中工作:为狭窄的领域构建更简单的搜索后端。我们需要经过训练、能推理并编排更简单检索系统的智能代理。 目前,正如我在《Cheat at Search with Agents》(http://maven.com/softwaredoug/cheat-at-search)课程中讲授的那样,我们会在模型周围构建约束与检查。但这种密集的上下文工程会消耗大量 Token 和成本 $$。 ## 针对最后 20% 的智能代理搜索模型 如果我们能训练一个 LLM 专门专注于搜索呢?更好的是:针对我们的领域、我们的用户进行搜索? 我们已经开始看到这方面的模型:SID 率先推出了他们的 SID-1 模型(https://www.sid.ai/research/sid-1)。随后 Glean 发布了 Waldo(https://www.glean.com/blog/waldo-launch)。像 Charcoal 这样的初创公司则针对你的语料库进行定制(https://withcharcoal.com/)。 这些团队宣称,通过专门训练文档*搜索*,它们能专注于找到有用结果所需的最后 20%。例如,Sid 指出,相比 GPT-5,其模型在智能代理搜索中具有**更小的体积和更低的延迟**(https://www.sid.ai/research/sid-1)。 想想这意味着什么。我曾描述过一个未来,我们不再构建复杂的查询加重排序管线。相反,智能代理编排更简单的检索原语:一个基本的关键词搜索或嵌入模型,加上几个过滤器。基础、可扩展且简单的检索工具。 然后我们部署一个像 SID-1 这样的智能代理搜索模型。它知道我们领域中什么相关,它了解我们的用户。现在它可以编排工具来找到相关的搜索结果。当然,目前它的重点开始于 RAG 和经典段落检索(即分块)。未来这肯定会扩展到一系列模型,针对不同领域,从电商到求职搜索,再到其他领域。 如今,我们在 HuggingFace 上有大量嵌入模型,针对金融、法律、电商等领域。为什么我们不会也有许多智能代理搜索模型,针对不同领域进行调优呢? 一个嵌入只解决了问题的一小部分(相似度)。而一个智能代理搜索模型可以涵盖从查询理解到混合搜索的整个过程。是的,今天它们对于驱动站内搜索来说还太慢。但在未来几年内,这一定会改变。 这是一个我期待的未来。搜索将发生根本性的变化。 如果你想了解这些主题,请关注我周一开始的《Cheat at Search w/ Agents》课程。 希望你能加入我,参加《Cheat at Search with Agents》(https://maven.com/softwaredoug/cheat-at-search)课程,学习如何在搜索中使用智能代理、构建更好的 RAG,以及利用 LLM 进行查询理解。

相似文章

AgenticRAG:面向企业知识库的代理检索

arXiv cs.AI

本文介绍了 AgenticRAG,这是一个来自微软的框架,通过为大型语言模型(LLM)配备迭代搜索、文档导航和分析工具,增强了企业知识库的检索能力。它在多个基准测试中展示了相比标准 RAG 流水线在召回率和事实准确性方面的显著提升。