SAM 3.1:通过多路复用和全局推理实现更快、更易用的实时视频检测与跟踪
摘要
Meta AI 发布了 SAM 3.1,这是 Segment Anything Model(分割一切模型)的一次更新,通过引入多路复用和全局推理能力,增强了实时视频检测与跟踪性能。
相似文章
@lillyguisnet: 哇塞!!!我还没有机会尝试SAM3.1,但仅仅用"worm"这个提示就能完美分割我的图像!…
一位用户分享了关于SAM 3.1的热情反馈:仅用'worm'等简单文本提示即可精准分割图像,相比SAM 1有显著提升。
Perceptron Mk1 震撼发布高性能视频分析AI模型,比Anthropic、OpenAI和Google便宜80-90%(8分钟阅读)
Perceptron公司发布了其旗舰视频分析模型Mk1,声称成本比竞争对手低80-90%,同时在空间和视频推理基准上表现出色。
Claude Mythos、Deepseek v4、HappyHorse、Meta 新 AI、实时视频游戏:AI 新闻
Anthropic 公布被雪藏的 Claude Mythos 模型,可自主挖掘数千个 0-day;ZAI 开源 1.5 TB GLM-5.1,登顶开放权重基准;阿里巴巴未发布的 HappyHorse 视频模型冲上公开榜第一;Deepseek 放出“专家模式”v4 预览。
介绍 SAM Audio:首个用于音频分离的统一多模态模型
SAM Audio 是首个用于音频分离的统一多模态模型,使用户能够利用文本、视觉或时间提示,从复杂的混合音频中分离出特定的声音。
MolmoAct2:面向真实场景部署的动作推理模型
Allen AI 发布了 MolmoAct2,这是一款专为真实场景机器人部署设计的开放权重视觉-语言-动作模型,具备新数据集、开放动作分词器以及自适应推理以降低延迟等特性。