@AdinaYakup:Alibaba AIDC 团队全新 MoE 多模态大语言模型 Ovis2.6-80B-A3B | 80B/3B 激活参数 | Apache 2.0 | 64K 上下文 / 2880×2880 图像…
摘要
Alibaba AIDC 团队已发布 Ovis2.6-80B-A3B,这是一款遵循 Apache 2.0 许可的混合专家(MoE)多模态大语言模型。该模型具备 80B 总参数量与 3B 激活参数,支持 64K 上下文长度,并原生支持 2880×2880 图像分辨率以及链式思考(CoT)视觉推理。
查看缓存全文
缓存时间: 2026/05/12 12:53
Ovis2.6-80B-A3B > 来自阿里巴巴 AIDC 团队的新型 MoE 多模态大语言模型
✨ 80B 总参数 / 3B 激活参数 ✨ Apache2.0 ✨ 64K 上下文 / 2880×2880 图像分辨率 ✨ “Think with Image”:CoT 中的主动视觉推理 https://t.co/08FpVf0aDd
相似文章
AIDC-AI/Ovis2.6-80B-A3B · Hugging Face
Ovis2.6-80B-A3B 是 AIDC-AI 最新发布的多模态大语言模型,采用混合专家(Mixture-of-Experts)架构,总参数达 80B,但在推理时仅激活 3B 参数。该模型具备增强的长上下文处理能力、高分辨率理解能力以及主动视觉推理能力。
@AdinaYakup: @Open_MOSS 发布 MOSS-VL 视觉模型:https://huggingface.co/collections/OpenMOSS-Team/moss-vl… 演示:https://hug…
Open_MOSS 开源 110 亿参数 Apache 2.0 视觉-语言模型 MOSS-VL,采用交叉注意力与 XRoPE,在 VSI-bench 上比 Qwen3-VL-8B 高 8.3 分。
@techNmak:1.7B 参数轻量 VLM,在 OmniDocBench 上碾压巨头的 OCR 新王者
仅 1.7B 参数的多语言文档解析器 dots.ocr,用轻量体积实现 SOTA,证明文档理解无需巨无霸模型。
@DivyanshT91162: 本地 LLM 迈入了一个全新的阶段。这个 Hugging Face 的发布简直是疯了:“gpt-oss-20b-tq3” 这是一个官方的 200 亿+ …
OpenAI 发布了一款全新的 200 亿参数以上的 MoE 模型,通过 TurboQuant 量化为 3-bit 并利用 MLX 优化,使得在标准的 16GB MacBook 上进行高性能的本地 LLM 推理成为可能。
@AdinaYakup: Intern S2 预览 上海人工智能实验室的科学多模态模型 @intern_lm 35B 在科学基准上与其自身1T模型表现相当…
上海人工智能实验室发布 Intern S2,一个35B的科学多模态模型,在科学基准上与其自身1T模型表现相当,引入了Task Scaling作为新的扩展维度。采用Apache 2.0许可证。