shadow-mask-distillation

标签

Cards List
#shadow-mask-distillation

如何在强化学习后训练中压缩 KV 缓存?用于内存高效对齐的阴影掩码蒸馏

arXiv cs.LG · 3天前 缓存

本文提出了阴影掩码蒸馏(SMD),旨在解决大语言模型在强化学习后训练中因 KV 缓存压缩而导致的离策略偏差。该方法引入了一种机制,确保在策略上的对齐,并提高长上下文推理任务的内存效率。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈