BitTide
首页
Trending
论文
模型
工具
新闻
产品
事件
时间轴
搜索
订阅
English
登录
shadow-mask-distillation
标签
Cards
List
#shadow-mask-distillation
如何在强化学习后训练中压缩 KV 缓存?用于内存高效对齐的阴影掩码蒸馏
arXiv cs.LG
↗
· 3天前
缓存
本文提出了阴影掩码蒸馏(SMD),旨在解决大语言模型在强化学习后训练中因 KV 缓存压缩而导致的离策略偏差。该方法引入了一种机制,确保在策略上的对齐,并提高长上下文推理任务的内存效率。
0 人收藏
0 人点赞
← 返回首页
意见反馈
×
提交意见反馈
感谢您的反馈!
提交