B空间拥挤:为LoRA融合校准共享方向
摘要
# 论文页 - B空间拥挤:为LoRA融合校准共享方向 来源:[https://huggingface.co/papers/2604.16826](https://huggingface.co/papers/2604.16826) 发布于4月18日 · 由[https://huggingface.co/yixuantt](https://huggingface.co/yixuantt)提交 [](https://huggingface.co/yixuantt) [yixuan](https://huggingface.co/yixuantt) 于4月21日上传 ## 摘要 通过校准共享方向,可提升LoRA适配器融合性能。
查看缓存全文
缓存时间: 2026/04/21 07:21
论文页面 - Crowded in B-Space:为 LoRA 合并校准共享方向
来源:https://huggingface.co/papers/2604.16826
发布于 4 月 18 日
由 https://huggingface.co/yixuantt 提交
yixuan (https://huggingface.co/yixuantt) 于 4 月 21 日
摘要
通过单独校准输出侧矩阵 B,可在减少共享方向干扰的同时保留任务特定信息,从而提升 LoRA 适配器合并性能。
将分别训练的 LoRA 适配器合并是联合多任务训练的可行替代方案,但往往会损害性能。现有方法通常把 LoRA 更新 ΔW = BA 视为整体,不区分两个 LoRA 矩阵。我们发现,LoRA 合并干扰的主要来源是输出侧矩阵 B:跨任务时,B 反复使用少量共享方向,而 A 则保持更强的任务特异性。结果,合并后的适配器过度强调这些共享方向,导致任务特定信息丢失。我们提出 Pico(Pre-merge interference calibration in output-space),一种无需数据的方法,在合并前通过降低过度共享方向的权重并重新缩放合并后的更新来校准 B。Pico 可直接嵌入现有合并方法,如 Task Arithmetic、TIES 和 TSV-M。在数学、编程、金融和医学领域的八个基准上,Pico 将对应基线方法的平均准确率提高 3.4–8.3 分,并取得最佳整体平均性能。Pico 还让合并后的适配器超越使用全部任务数据训练的 LoRA。这些结果表明,将两个 LoRA 矩阵分开处理能让合并效果更好。
查看 arXiv 页面 (https://arxiv.org/abs/2604.16826)
查看 PDF (https://arxiv.org/pdf/2604.16826)
加入收藏
在您的 agent 中获取本文:
hf papers read 2604.16826
还没装最新 CLI?
curl -LsSf https://hf.co/cli/install.sh | bash
引用该论文的模型 0
暂无模型引用本文
在模型 README.md 中引用 arxiv.org/abs/2604.16826 即可在此显示。
引用该论文的数据集 0
暂无数据集引用本文
在数据集 README.md 中引用 arxiv.org/abs/2604.16826 即可在此显示。
引用该论文的 Spaces 0
暂无 Space 引用本文
在 Space README.md 中引用 arxiv.org/abs/2604.16826 即可在此显示。
收录该论文的合集 0
暂无合集收录本文
创建合集 并将本文加入,即可在此显示。
相似文章
RDP LoRA:基于几何轨迹的大语言模型参数高效适配层选择方法
RDP-LoRA 通过几何轨迹分析与 Ramer-Douglas-Peucker 算法,自动挑出对参数高效微调最关键的层,效果优于全层及随机 LoRA 基线。
SAMoRA:面向任务自适应学习的语义感知 LoRA 专家混合
SAMoRA 通过引入语义感知路由器和任务自适应缩放,在 MoE-LoRA 微调中提升专家专业化与动态加权,在多任务基准上显著优于现有方法。
Aletheia:基于梯度引导的层选择方法,实现跨架构的高效LoRA微调
Aletheia 提出了一种基于梯度引导的层选择方法,用于高效的 LoRA 微调。该方法通过轻量级梯度探针识别与任务相关的 Transformer 层,并选择性地应用适配器,在 14 个模型上实现了 15%-28% 的训练加速,同时保持了在 MMLU、GSM8K 和 HumanEval 基准测试中的下游性能。
MiniCPM-o 4.5:迈向实时全双工全模态交互
MiniCPM-o 4.5 是一个拥有 90 亿参数的多模态模型,具备 Omni-Flow 框架,支持实时全双工交互,使模型能够同时感知并主动响应。其开源性能达到最先进水平,可与 Gemini 2.5 Flash 相媲美,并能在内存低于 12GB 的边缘设备上运行。
JumpLoRA:大语言模型持续学习的稀疏适配器
JumpLoRA 引入了一个新颖的稀疏适配器框架,用于大语言模型的持续学习。该方法使用 JumpReLU 门控来动态隔离任务参数并防止灾难性遗忘。它增强了基于 LoRA 的方法,并超越了 ELLA 等最先进的持续学习方法。