lora

标签

Cards List
#lora

Meshtastic 简介

Hacker News Top · 2天前 缓存

Meshtastic 是一个开源项目,利用廉价的 LoRa 无线电设备构建去中心化、长距离、离网网状通信网络,支持加密文本消息和 GPS 功能,无需手机或持证无线电操作员。

0 人收藏 0 人点赞
#lora

MedQA:在AMD ROCm上微调临床AI——无需CUDA

Hugging Face Blog · 2天前 缓存

一个教程和项目,演示在AMD MI300X上使用ROCm对Qwen3-1.7B进行LoRA微调,用于临床问答,为医疗AI开发提供无需CUDA的替代方案。

0 人收藏 0 人点赞
#lora

分解大语言模型的基本能力:在多任务指令微调中缓解跨任务干扰

arXiv cs.CL · 2天前 缓存

本文提出Badit方法,将大语言模型参数分解为正交的高奇异值LoRA专家,以在多任务指令微调中缓解跨任务干扰。

0 人收藏 0 人点赞
#lora

Meta-Tool:小语言模型的高效少样本工具适配

arXiv cs.CL · 2026-04-23 缓存

独立研究表明,在 3B Llama 的工具使用中,227M 参数的超网络相比精心设计的少样本提示毫无增益,仅用 1/10 延迟即可达到 GPT-5 性能的 79.7%。

0 人收藏 0 人点赞
#lora

SAMoRA:面向任务自适应学习的语义感知 LoRA 专家混合

arXiv cs.CL · 2026-04-22 缓存

SAMoRA 通过引入语义感知路由器和任务自适应缩放,在 MoE-LoRA 微调中提升专家专业化与动态加权,在多任务基准上显著优于现有方法。

0 人收藏 0 人点赞
#lora

RDP LoRA:基于几何轨迹的大语言模型参数高效适配层选择方法

Hugging Face Daily Papers · 2026-04-21 缓存

RDP-LoRA 通过几何轨迹分析与 Ramer-Douglas-Peucker 算法,自动挑出对参数高效微调最关键的层,效果优于全层及随机 LoRA 基线。

0 人收藏 0 人点赞
#lora

JumpLoRA:大语言模型持续学习的稀疏适配器

arXiv cs.CL · 2026-04-20 缓存

JumpLoRA 引入了一个新颖的稀疏适配器框架,用于大语言模型的持续学习。该方法使用 JumpReLU 门控来动态隔离任务参数并防止灾难性遗忘。它增强了基于 LoRA 的方法,并超越了 ELLA 等最先进的持续学习方法。

0 人收藏 0 人点赞
#lora

Aletheia:基于梯度引导的层选择方法,实现跨架构的高效LoRA微调

arXiv cs.CL · 2026-04-20 缓存

Aletheia 提出了一种基于梯度引导的层选择方法,用于高效的 LoRA 微调。该方法通过轻量级梯度探针识别与任务相关的 Transformer 层,并选择性地应用适配器,在 14 个模型上实现了 15%-28% 的训练加速,同时保持了在 MMLU、GSM8K 和 HumanEval 基准测试中的下游性能。

0 人收藏 0 人点赞
#lora

基于不同微调策略和模型规模的LLM归因分析在自动代码合规性检查中的应用

arXiv cs.CL · 2026-04-20 缓存

本文使用基于扰动的归因分析方法,分析了不同微调策略(全量微调、LoRA、量化LoRA)和模型规模对LLM在自动代码合规性任务中解释行为的影响。研究发现全量微调产生的归因模式比参数高效方法更集中,而较大的模型会形成特定的解释策略,但性能收益在超过7B参数后出现递减。

0 人收藏 0 人点赞
#lora

多模态LLM中的乘法:基于文本、图像和音频输入的计算

Hugging Face Daily Papers · 2026-04-20 缓存

# 论文页面 - 多模态LLM中的乘法:基于文本、图像和音频输入的计算 来源:[https://huggingface.co/papers/2604.18203](https://huggingface.co/papers/2604.18203) ## 摘要 多模态大语言模型在不同的表示形式与模态下执行精确的多位数乘法时,均表现出一致的计算局限性;其性能与一种新颖的算术负载指标密切相关,该指标比传统的步骤计数方法更能预测准确性

0 人收藏 0 人点赞
#lora

MoVE:通过语音专家混合模型在语音到语音翻译中保留笑声与哭泣

Hugging Face Daily Papers · 2026-04-19 缓存

MoVE 提出一种 Mixture-of-LoRA-Experts 架构,在仅 30 分钟精选数据下即可在语音到语音翻译中保留 76% 的非语言发声(笑声、哭泣)。

0 人收藏 0 人点赞
#lora

Gemma-4微调与部署中的挑战与磨难 [P]

Reddit r/MachineLearning · 2026-04-18

一个机器学习团队记录了在微调并部署Gemma-4过程中遇到的实际挑战,包括与PEFT、SFTTrainer、DeepSpeed ZeRO-3的不兼容,以及缺乏运行时LoRA服务支持,并提供了每个问题的解决方法。

0 人收藏 0 人点赞
#lora

B空间拥挤:为LoRA融合校准共享方向

Hugging Face Daily Papers · 2026-04-18 缓存

# 论文页 - B空间拥挤:为LoRA融合校准共享方向 来源:[https://huggingface.co/papers/2604.16826](https://huggingface.co/papers/2604.16826) 发布于4月18日 · 由[https://huggingface.co/yixuantt](https://huggingface.co/yixuantt)提交 [![](https://huggingface.co/avatars/a95c7df96dc4fb6a96193f6dd5068227.svg)](https://huggingface.co/yixuantt) [yixuan](https://huggingface.co/yixuantt) 于4月21日上传 ## 摘要 通过校准共享方向,可提升LoRA适配器融合性能。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈