B空间拥挤:为LoRA融合校准共享方向

Hugging Face Daily Papers 论文

摘要

# 论文页 - B空间拥挤:为LoRA融合校准共享方向 来源:[https://huggingface.co/papers/2604.16826](https://huggingface.co/papers/2604.16826) 发布于4月18日 · 由[https://huggingface.co/yixuantt](https://huggingface.co/yixuantt)提交 [![](https://huggingface.co/avatars/a95c7df96dc4fb6a96193f6dd5068227.svg)](https://huggingface.co/yixuantt) [yixuan](https://huggingface.co/yixuantt) 于4月21日上传 ## 摘要 通过校准共享方向,可提升LoRA适配器融合性能。

将分别训练得到的LoRA适配器直接融合,是联合多任务训练的现实替代方案,却常导致性能下降。现有方法通常把LoRA更新ΔW = BA视为整体,不区分两个LoRA矩阵。我们发现,LoRA融合干扰主要源自输出侧矩阵B:跨任务中,B反复使用少量共享方向,而A保持更强的任务特异性。结果,融合后的适配器过度强调这些共享方向,任务特有信息丢失。我们提出Pico(输出空间预融合干扰校准),一种无需数据的方法,在融合前对B进行校准:先缩减过度共享方向,再重缩放融合更新。Pico可直接嵌入Task Arithmetic、TIES、TSV-M等现有融合方法。在数学、编程、金融、医疗八大基准上,Pico平均准确率较基线提升3.4–8.3个百分点,整体表现最佳。Pico还让融合适配器超越用全部任务数据联合训练的LoRA。结果表明,将LoRA两矩阵分开处理,融合效果更佳。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/21 07:21

论文页面 - Crowded in B-Space:为 LoRA 合并校准共享方向

来源:https://huggingface.co/papers/2604.16826
发布于 4 月 18 日


由 https://huggingface.co/yixuantt 提交

yixuan (https://huggingface.co/yixuantt) 于 4 月 21 日

摘要

通过单独校准输出侧矩阵 B,可在减少共享方向干扰的同时保留任务特定信息,从而提升 LoRA 适配器合并性能。

分别训练LoRA 适配器合并是联合多任务训练的可行替代方案,但往往会损害性能。现有方法通常把 LoRA 更新 ΔW = BA 视为整体,不区分两个 LoRA 矩阵。我们发现,LoRA 合并干扰的主要来源是输出侧矩阵 B:跨任务时,B 反复使用少量共享方向,而 A 则保持更强的任务特异性。结果,合并后的适配器过度强调这些共享方向,导致任务特定信息丢失。我们提出 Pico(Pre-merge interference calibration in output-space),一种无需数据的方法,在合并前通过降低过度共享方向的权重并重新缩放合并后的更新来校准 B。Pico 可直接嵌入现有合并方法,如 Task Arithmetic、TIES 和 TSV-M。在数学、编程、金融和医学领域的八个基准上,Pico 将对应基线方法的平均准确率提高 3.4–8.3 分,并取得最佳整体平均性能。Pico 还让合并后的适配器超越使用全部任务数据训练的 LoRA。这些结果表明,将两个 LoRA 矩阵分开处理能让合并效果更好。

查看 arXiv 页面 (https://arxiv.org/abs/2604.16826)
查看 PDF (https://arxiv.org/pdf/2604.16826)
加入收藏

在您的 agent 中获取本文:

hf papers read 2604.16826

还没装最新 CLI?
curl -LsSf https://hf.co/cli/install.sh | bash

引用该论文的模型 0

暂无模型引用本文
在模型 README.md 中引用 arxiv.org/abs/2604.16826 即可在此显示。

引用该论文的数据集 0

暂无数据集引用本文
在数据集 README.md 中引用 arxiv.org/abs/2604.16826 即可在此显示。

引用该论文的 Spaces 0

暂无 Space 引用本文
在 Space README.md 中引用 arxiv.org/abs/2604.16826 即可在此显示。

收录该论文的合集 0

暂无合集收录本文
创建合集 并将本文加入,即可在此显示。

相似文章

Aletheia:基于梯度引导的层选择方法,实现跨架构的高效LoRA微调

arXiv cs.CL

Aletheia 提出了一种基于梯度引导的层选择方法,用于高效的 LoRA 微调。该方法通过轻量级梯度探针识别与任务相关的 Transformer 层,并选择性地应用适配器,在 14 个模型上实现了 15%-28% 的训练加速,同时保持了在 MMLU、GSM8K 和 HumanEval 基准测试中的下游性能。

MiniCPM-o 4.5:迈向实时全双工全模态交互

Hugging Face Daily Papers

MiniCPM-o 4.5 是一个拥有 90 亿参数的多模态模型,具备 Omni-Flow 框架,支持实时全双工交互,使模型能够同时感知并主动响应。其开源性能达到最先进水平,可与 Gemini 2.5 Flash 相媲美,并能在内存低于 12GB 的边缘设备上运行。

JumpLoRA:大语言模型持续学习的稀疏适配器

arXiv cs.CL

JumpLoRA 引入了一个新颖的稀疏适配器框架,用于大语言模型的持续学习。该方法使用 JumpReLU 门控来动态隔离任务参数并防止灾难性遗忘。它增强了基于 LoRA 的方法,并超越了 ELLA 等最先进的持续学习方法。