BitTide
首页
Trending
论文
模型
工具
新闻
产品
事件
时间轴
搜索
订阅
English
登录
long-context-llms
标签
Cards
List
#long-context-llms
OjaKV: 上下文感知的在线低秩KV缓存压缩
arXiv cs.CL
↗
· 2026-04-20
缓存
OjaKV 引入了一种上下文感知的在线低秩KV缓存压缩框架,该框架利用混合存储策略和Oja算法进行增量子空间自适应,以减少长上下文大语言模型推理中的GPU内存瓶颈,且无需模型微调。
0 人收藏
0 人点赞
← 返回首页
意见反馈
×
提交意见反馈
感谢您的反馈!
提交