RouteProfile:阐明用于路由的LLM配置文件的设计空间
摘要
本文介绍了RouteProfile,这是一个用于路由系统中LLM配置文件的设计空间,证明了结构化配置文件和查询级信号能够提高路由性能以及对新模型的泛化能力。
查看缓存全文
缓存时间: 2026/05/15 08:24
论文页面 - RouteProfile: 阐释用于路由的LLM配置文件设计空间
来源:https://huggingface.co/papers/2605.00180
摘要
LLM配置文件设计对路由性能有显著影响,结构化配置文件和查询级信号相比平面配置文件和领域级信号展现出更优的可靠性和泛化能力。
随着大语言模型(LLM)生态系统的扩展,各个模型在查询、基准测试和领域上的能力各不相同,这推动了LLM路由(https://huggingface.co/papers?q=LLM%20routing)的发展。虽然先前的工作主要聚焦于路由器机制设计(https://huggingface.co/papers?q=router%20mechanism%20design),但用于捕捉模型能力的LLM配置文件(https://huggingface.co/papers?q=LLM%20profiles)仍未被充分探索。在这项工作中,我们提出疑问:LLM配置文件设计如何影响不同路由器的路由性能?回答这个问题有助于澄清配置文件在路由中的作用,将配置文件设计从路由器设计中分离出来,从而实现更公平的比较和更系统的路由系统开发。为此,我们将LLM配置文件视为一个在异构交互历史之上的结构化信息集成(https://huggingface.co/papers?q=structured%20information%20integration)问题。我们围绕四个关键维度:组织形式(https://huggingface.co/papers?q=organizational%20form)、表示类型(https://huggingface.co/papers?q=representation%20type)、聚合深度(https://huggingface.co/papers?q=aggregation%20depth)和学习配置(https://huggingface.co/papers?q=learning%20configuration),开发了一个名为RouteProfile(https://huggingface.co/papers?q=RouteProfile)的LLM配置文件(https://huggingface.co/papers?q=LLM%20profiles)通用设计空间。通过在标准设置和新增LLM泛化(https://huggingface.co/papers?q=generalization)设置下对三个代表性路由器进行系统评估,我们证明了:(1) 结构化配置文件始终优于平面配置文件;(2) 查询级信号(https://huggingface.co/papers?q=query-level%20signals)比粗粒度的领域级信号(https://huggingface.co/papers?q=domain-level%20signals)更可靠;(3) 对新增模型的泛化(https://huggingface.co/papers?q=generalization)在可训练配置下最受益于结构化配置文件。总体而言,我们的工作强调LLM配置文件设计是未来路由研究的一个重要方向。
查看arXiv页面(https://arxiv.org/abs/2605.00180)查看PDF(https://arxiv.org/pdf/2605.00180)项目页面(https://ulab-uiuc.github.io/RouteProfile/)GitHub(https://github.com/ulab-uiuc/RouteProfile)添加到收藏(https://huggingface.co/login?next=%2Fpapers%2F2605.00180)
在你的agent中获取这篇论文:
hf papers read 2605\.00180
没有最新的CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash
引用该论文的模型0
没有模型链接此论文
在模型README.md中引用arxiv.org/abs/2605.00180以从此页面链接。
引用该论文的数据集0
没有数据集链接此论文
在数据集README.md中引用arxiv.org/abs/2605.00180以从此页面链接。
引用该论文的Spaces0
没有Space链接此论文
在Space README.md中引用arxiv.org/abs/2605.00180以从此页面链接。
包含该论文的收藏0
没有收藏包含此论文
添加此论文到一个收藏(https://huggingface.co/new-collection)以从此页面链接。
相似文章
@amitiitbhu: 新文章:LLM 路由,阅读链接:https://outcomeschool.com/blog/llm-routing…
一篇教程博客文章,介绍 LLM 路由——即根据成本、延迟和质量,将用户查询定向到最合适的 LLM 的实践方法。涵盖路由策略、LLM 路由器的结构解析,以及与混合专家模型(Mixture of Experts)的对比。
从早期经验中学习智能体路由
本文介绍了 BoundaryRouter,这是一个无需训练的框架,通过根据早期经验将查询路由至轻量级推理或完整智能体执行来优化大型语言模型(LLM)智能体的使用。此外,本文还提出了 RouteBench,这是一个用于评估路由性能的基准,显示出在速度和准确率方面的显著提升。
面向LLM代理中功能等价工具的延迟-质量路由
本文介绍了 LQM-ContextRoute,一种上下文赌博机路由器,用于在 LLM 代理中选择功能等效的工具提供商,平衡延迟和答案质量。它在网络搜索和检索器基准测试上优于基线。
为多模型流水线构建路由层,根据优先级为每个请求选择正确的LLM
一个路由层,根据优先级标志(速度、成本、质量、平衡)使用加权评分自动选择最佳LLM,决策时间低于1毫秒,内置回退、缓存和指标。
动态潜路由
动态潜路由(DLR)让LLM通过搜索组合子策略来学习自己的内心独白,其灵感来源于语言的组合性。在低数据微调场景中,DLR达到或优于标准的监督微调。