面向南非结核病诊疗的领域专用大语言模型开发与初步评估
摘要
研究人员使用QLoRA与GraphRAG对BioMistral-7B进行微调,构建面向南非结核病诊疗的LLM,在上下文对齐方面优于基座模型。
查看缓存全文
缓存时间: 2026/04/23 10:02
# 南非结核病诊疗领域专用大语言模型的开发与初步评估 来源:https://arxiv.org/abs/2604.19776 查看 PDF(https://arxiv.org/pdf/2604.19776) > 摘要:结核病(TB)是全球最致命的传染病之一,在南非,它给该国医疗体系带来沉重负担。本文报告了一项实验研究,旨在开发一款面向结核病诊疗的领域专用大语言模型(DS-LLM),以减轻患者与医护人员的压力。研究首先通过文献综述梳理当前医学领域 LLM 的开发策略;随后收集南非 TB 指南、精选 TB 文献及现有医学基准数据集。我们采用量化低秩适配(QLoRA)算法对医学 LLM BioMistral-7B 进行微调,并引入基于图的检索增强生成(GraphRAG)。通过自动化指标与人工量化评分,将所构建的 DS-LLM 与基础 BioMistral-7B 及通用 LLM 进行对比。结果显示,DS-LLM 在南非结核病场景下的语境对齐(词汇、语义与知识)表现优于基础模型。 ## 投稿历史 来自:Olawande Daramola 教授 [查看邮件](https://arxiv.org/show-email/a3ae5965/2604.19776) **\[v1\]** 2026 年 3 月 28 日(周六)11:22:05 UTC(651 KB)
相似文章
@cjzafir: 垂直语言模型(VLMs)正在击败顶级大语言模型。这些参数量7B到15B的小型专精模型在各自的细分领域击败了SoTA模型……
作者演示了,通过使用开源模型和Codex编排进行高性价比微调,小型垂直语言模型(6B-15B)能够在细分基准上超越顶级大语言模型,仅用价值300美元的数据集就取得了成果。
语言模型能否识别乳腺癌放疗的副作用?
本文提出了一种面向部署的压力测试框架,用于评估大型语言模型在识别乳腺癌放疗副作用方面的表现。该研究揭示了LLM在可靠性方面的局限性,例如对文档细微变化的敏感性以及对罕见副作用的低召回率,表明以临床医生整理的清单为输出依据可提高鲁棒性。
LLiMba:单卡GPU上的撒丁语——将3B参数语言模型适配至一种濒临消失的罗曼语族语言
本文介绍了 LLiMba,这是一个基于 Qwen2.5 适配而来的3B参数模型,旨在支持撒丁语。该模型在单张消费级 GPU 上通过继续预训练和有监督微调完成训练。文章评估了多种 LoRA 配置,发现适配器容量对低资源语言适配的性能和事实准确性有显著影响。
MedAction:迈向主动式多轮临床诊断大语言模型
本文介绍了 MedAction 框架,该框架通过模拟迭代式的检查开具与假设更新,训练大语言模型(LLM)进行主动的多轮临床诊断。文章提出了一个新的数据集 MedAction-32K,并展示了开源模型在医学基准测试上的最先进水平(SOTA)性能。
将结构化生物医学知识注入语言模型:持续预训练与GraphRAG对比
# 将结构化生物医学知识注入语言模型:持续预训练与GraphRAG 来源:[https://arxiv.org/html/2604.16422](https://arxiv.org/html/2604.16422) ###### 摘要 将领域特定知识注入模型对于使语言模型(LMs)适应生物医学等专业领域至关重要。尽管目前大多数方法依赖于非结构化文本语料库,但本研究探讨了两种利用UMLS元术语表(Metathesaurus)中结构化知识的互补策略: