llm-compression

标签

Cards List
#llm-compression

权重剪枝放大偏见:压缩大语言模型在边缘人工智能中多方法研究

arXiv cs.LG · 2天前 缓存

本研究揭示了一个“智能剪枝悖论”:诸如 Wanda 等激活感知剪枝方法虽然保持了困惑度,但在边缘设备上部署的大语言模型中显著放大了偏见。

0 人收藏 0 人点赞
#llm-compression

AngelSlim/Hy-MT1.5-1.8B-1.25bit

Hugging Face Models Trending · 2026-04-28 缓存

腾讯 AngelSlim 团队发布了 Hy-MT1.5-1.8B-1.25bit,这是一款高度压缩的 1.25 位机器翻译模型,支持 33 种语言,体积仅 440MB,可在设备端运行。该模型采用 Sherry 量化算法,实现了世界一流的翻译质量,可与体积大得多的模型相媲美。

1 人收藏 1 人点赞
← 返回首页

提交意见反馈