BitTide
首页
Trending
论文
模型
工具
新闻
产品
事件
时间轴
搜索
订阅
English
登录
sparse-inference
标签
Cards
List
#sparse-inference
@hardmaru: 人脑极其高效,因为它只激活特定思维所需的神经元。现代LLM…
X AI KOLs Timeline
↗
· 23小时前
缓存
本文介绍了TwELL和Hybrid稀疏格式,配合自定义CUDA内核,有效利用LLM中的非结构化稀疏性,在H100 GPU上实现了训练和推理速度提升超过20%,同时降低了能耗和内存使用。
0 人收藏
0 人点赞
← 返回首页
意见反馈
×
提交意见反馈
感谢您的反馈!
提交