DiffRetriever:基于扩散语言模型的并行代表性令牌检索

Hugging Face Daily Papers 论文

摘要

本文介绍了 DiffRetriever,这是一种利用扩散语言模型并行生成多个代表性令牌以实现高效信息检索的方法,在速度和准确率上均优于自回归基线方法。

PromptReps 研究表明,通过提示自回归语言模型生成查询或文档片段的稠密和稀疏表示,可以将其直接用作检索器。然而,由于自回归模型必须按顺序生成令牌,将这一方法扩展至多个代表性令牌效率低下,且此前多令牌变体并未在单令牌解码基础上实现稳定提升。 我们证明,瓶颈在于顺序生成,而非多令牌概念本身。DiffRetriever 是一种针对扩散语言模型的代表性令牌检索器:它在提示后附加 K 个掩码位置,并通过单次双向前向传播读取所有 K 个位置。在域内和域外评估中,多令牌 DiffRetriever 在我们测试的所有扩散主干模型上均显著优于单令牌方法;而自回归多令牌方法表现持平甚至倒退,且其延迟成本随 K 线性增加,而扩散模型则无此问题。经过监督微调后,基于 Dream 的 DiffRetriever 成为我们对比中最强的 BEIR-7 检索器,优于 PromptReps、基于相同扩散主干的编码器风格 DiffEmbed 基线,以及经过对比微调的单向量 RepLLaMA。在冻结基础模型上进行的每查询预言实验表明,在相同固定预算下,其效果超过对比微调,这表明自适应预算选择是未来的研究方向。代码已开源:https://github.com/ielab/diffretriever。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/12 02:50

论文页面 - DiffRetriever:扩散语言模型检索中的并行代表性 Token

来源:https://huggingface.co/papers/2605.07210

摘要

DiffRetriever 通过并行而非串行地生成表示,利用扩散语言模型实现了高效的多 Token 检索,其性能优于自回归方法。

PromptReps 表明,自回归语言模型(https://huggingface.co/papers?q=autoregressive%20language%20model)可以通过提示直接用作检索器,以生成查询或片段的密集和稀疏表示。对于自回归模型,将其扩展到多个代表性 Token 效率低下,因为 Token 必须逐个生成,而且先前的多 Token(https://huggingface.co/papers?q=multi-token)变体并未可靠地超越单 Token 解码(https://huggingface.co/papers?q=single-token%20decoding)。我们证明了瓶颈在于串行生成,而非多 Token(https://huggingface.co/papers?q=multi-token)理念本身。DiffRetriever 是一种面向扩散语言模型(https://huggingface.co/papers?q=diffusion%20language%20models)的代表性 Token 检索器(https://huggingface.co/papers?q=representative-token%20retriever):它在提示后附加 K 个掩码位置(https://huggingface.co/papers?q=masked%20positions),并在单次双向前向传播(https://huggingface.co/papers?q=bidirectional%20forward%20pass)中读取所有 K 个 Token。在域内和域外评估中,多 Token(https://huggingface.co/papers?q=multi-token)DiffRetriever 在我们测试的每个扩散骨干网络上均显著优于单 Token 方法,而自回归多 Token(https://huggingface.co/papers?q=multi-token)表现持平甚至负面,且其延迟成本随 K 增加,而扩散模型则没有此问题。经过监督微调(https://huggingface.co/papers?q=supervised%20fine-tuning)后,基于 Dream 的 DiffRetriever(https://huggingface.co/papers?q=Dream)是我们比较中最强的 BEIR-7(https://huggingface.co/papers?q=BEIR-7)检索器,优于 PromptReps、相同扩散骨干上的编码器风格 DiffEmbed 基线,以及对比微调的单向量 RepLLaMA(https://huggingface.co/papers?q=RepLLaMA)。在冻结基础模型上的每查询预言机在相同固定预算下超过了对比微调(https://huggingface.co/papers?q=contrastive%20fine-tuning),这指向了将自适应预算选择作为未来工作。代码可在 https://github.com/ielab/diffretriever 获取。

查看 arXiv 页面(https://arxiv.org/abs/2605.07210)查看 PDF(https://arxiv.org/pdf/2605.07210)GitHub2(https://github.com/ielab/diffretriever)添加到收藏(https://huggingface.co/login?next=%2Fpapers%2F2605.07210)

在你的 agent 中获取此论文:

hf papers read 2605\.07210

没有最新的 CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash

引用此论文的模型 0

无模型链接此论文

在模型 README.md 中引用 arxiv.org/abs/2605.07210 即可从此页面链接它。

引用此论文的数据集 0

无数据集链接此论文

在数据集 README.md 中引用 arxiv.org/abs/2605.07210 即可从此页面链接它。

引用此论文的 Spaces 0

无 Space 链接此论文

在 Space README.md 中引用 arxiv.org/abs/2605.07210 即可从此页面链接它。

包含此论文的集合 0

无集合并包含此论文

添加此论文到集合(https://huggingface.co/new-collection)即可从此页面链接它。

相似文章

DiffScore:超越自回归似然性的文本评估

arXiv cs.CL

本文介绍了 DiffScore,这是一个基于掩码大型扩散语言模型(Masked Large Diffusion Language Models)的文本评估框架,通过利用掩码重建来解决自回归评分中的位置偏差问题。