model-optimization

标签

Cards List
#model-optimization

(吐槽;)) 让你的基准测试更贴近现实

Reddit r/LocalLLaMA · 昨天

社区吐槽:呼吁AI模型基准测试应更贴近现实,考虑上下文大小、多模态特性、具体硬件配置和并行处理,而不仅仅是原始速度。

0 人收藏 0 人点赞
#model-optimization

如何获得一个好的目标检测模型?[P]

Reddit r/MachineLearning · 2026-04-20

一位用户希望获得关于改进其YOLO11n目标检测模型的建议,计划将其部署在Raspberry Pi 5上,但困扰于理论mAP50指标与实际检测性能之间的差距。

0 人收藏 0 人点赞
#model-optimization

通过令牌剪枝优化韩语中心的大语言模型

arXiv cs.CL · 2026-04-20 缓存

本文系统地评估了令牌剪枝这一压缩技术在韩语中心的LLM任务上的应用,该技术通过移除与无关语言对应的令牌和嵌入参数来压缩模型。研究评估了流行的多语言模型(Qwen3、Gemma-3、Llama-3、Aya)在不同词汇配置下的表现,发现令牌剪枝能显著改进生成稳定性并降低特定领域部署的内存占用。

0 人收藏 0 人点赞
#model-optimization

将机器人AI引入嵌入式平台:数据集录制、VLA微调和设备端优化

Hugging Face Blog · 2026-03-05 缓存

NXP和Hugging Face展示了在嵌入式机器人平台上部署视觉-语言-动作(VLA)模型的技术,涵盖数据集录制最佳实践、VLA微调以及针对i.MX 95处理器的设备端优化,包括量化和异步推理调度。

0 人收藏 0 人点赞
#model-optimization

Transformer 中的专家混合模型 (MoEs)

Hugging Face Blog · 2026-02-26 缓存

Hugging Face 的博客文章,介绍 Transformer 中的专家混合模型 (MoEs) 架构,涵盖从密集模型到稀疏模型的转变、权重加载优化、专家并行计算以及基于 MoE 的语言模型训练技术。

0 人收藏 0 人点赞
#model-optimization

使用 Unsloth 和 Hugging Face Jobs 免费训练 AI 模型

Hugging Face Blog · 2026-02-20 缓存

Hugging Face 和 Unsloth 提供免费额度和训练资源,让开发者可以通过 Hugging Face Jobs 微调 AI 模型。开发者可以训练小型语言模型(如 LFM2.5-1.2B-Instruct),实现 2 倍更快的训练速度和 60% 更低的 VRAM 占用,并可配合 Claude Code 和 Codex 等编程代理使用。

0 人收藏 0 人点赞
#model-optimization

OpenAI 先锋计划

OpenAI Blog · 2025-04-09 缓存

OpenAI 宣布推出先锋计划,这是一项新举措,将与法律、金融、医疗等高影响力行业的公司合作,共同创建特定领域的评估方法,并通过强化微调(RFT)技术对自定义模型进行微调,用于生产环境部署。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈