parameter-efficient-fine-tuning

标签

Cards List
#parameter-efficient-fine-tuning

分解大语言模型的基本能力:在多任务指令微调中缓解跨任务干扰

arXiv cs.CL · 2天前 缓存

本文提出Badit方法,将大语言模型参数分解为正交的高奇异值LoRA专家,以在多任务指令微调中缓解跨任务干扰。

0 人收藏 0 人点赞
#parameter-efficient-fine-tuning

SAMoRA:面向任务自适应学习的语义感知 LoRA 专家混合

arXiv cs.CL · 2026-04-22 缓存

SAMoRA 通过引入语义感知路由器和任务自适应缩放,在 MoE-LoRA 微调中提升专家专业化与动态加权,在多任务基准上显著优于现有方法。

0 人收藏 0 人点赞
#parameter-efficient-fine-tuning

Aletheia:基于梯度引导的层选择方法,实现跨架构的高效LoRA微调

arXiv cs.CL · 2026-04-20 缓存

Aletheia 提出了一种基于梯度引导的层选择方法,用于高效的 LoRA 微调。该方法通过轻量级梯度探针识别与任务相关的 Transformer 层,并选择性地应用适配器,在 14 个模型上实现了 15%-28% 的训练加速,同时保持了在 MMLU、GSM8K 和 HumanEval 基准测试中的下游性能。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈