OpenSeeker 完全开源了基于 ReAct 框架的 30B 规模搜索智能体的训练数据与模型,在多个基准测试(包括 BrowseComp 和 Humanity's Last Exam)上达到了最先进的性能。这是首个在前沿搜索基准上达到顶尖水平并同时公开完整训练数据的纯学术项目。
Garry Tan 对一款可在 128GB MacBook Pro 上本地运行的模型感到兴奋,该模型拥有 100 万 token 的上下文窗口和编程智能体能力,他认为这是一个重要里程碑。
作者强调了在 RTX 5090 上本地运行开源 Qwen 3.6-27B 模型的卓越能力,指出其在编程任务上的强劲表现,并与商业模型进行了对比,尽管本地部署过程颇具挑战性。
DeepSeek是一款由中国量化对冲基金开发的AI模型,据报道其训练成本仅为GPT-4的约5%,却能达到相当的性能水平,引发了市场剧烈震荡,导致NVIDIA单日市值蒸发6000亿美元。目前已有人发布了一门时长1小时50分钟的免费课程,教用户如何在本地及通过API使用DeepSeek V4。
一位社区成员分享了通过 API 调用 Google 的 Lyria 3 Pro 生成曲目的实操体验,指出成本极低且初版输出质量出色。
一位开发者分享了在本地运行 Gemma4 和 Qwen 进行编程任务的复杂体验,指出了工具集成、循环处理和任务完成方面存在的问题,并向社区寻求更优化的使用策略。
社区发布的Qwen3.6 35B A3B无审查变体版本,完整保留19个MTP张量,支持多种格式包括Safetensors、GGUF、NVFP4和GPTQ-Int4。
Hermes Agent 登顶全球榜首,彰显开源社区与开发者的共同推动力,同时反映出 AI Agent 生态在 OpenRouter 等平台上正步入高速发展阶段。
Hermes Agent 模型凭借近 1000 名开发者的贡献,在 OpenRouter 全平台 AI 应用中荣登全球榜首。创作者感谢社区支持,并邀请大家为后续改进提供建议。
NousResearch 的 Hermes Agent 已攀升至 OpenRouter 全球代币排行榜首位,这对于这款 AI Agent 来说是一个重要的里程碑。
OpenAI在大约15天内发布了多个GPT模型和功能,包括GPT Image 2、多个GPT 5.5变体(Pro、Instant、Cyber)、GPT Realtime 2以及相关工具。
AI2发布了EMO,一个混合专家(MoE)语言模型,总参数量14B,其中1B活跃参数,基于1万亿tokens训练,并采用文档级路由,即专家会按领域(如健康、新闻等)进行聚类。
分享了一套开源模型堆栈在单卡 AMD MI300X 上运行的早期基准测试成绩与评估指标,表明其性能已具备与闭源方案竞争的实力。
CyberSecQwen-4B 是一个小型、专用的 4B 参数模型,针对防御性网络安全任务进行了微调,设计为在单个 GPU 上本地运行,解决了隐私、成本和离线部署需求。
Allen AI 发布了 EMO 模型,这是一种混合专家模型,其中模块化结构从数据中自然涌现,使得仅使用 12.5% 的专家就能完成一项任务,同时保持接近完整模型的性能。
Yann LeCun的团队发布了LeWorldModel,一个仅有1500万参数的物理模型,在单张GPU上训练数小时,在规划速度和物理合理性上超越了价值数十亿美元的基础模型,挑战了主流的规模扩展范式。
HiDream-ai 已开源 HiDream-O1-Image(8B),这是一款基于像素级统一 Transformer(UiT)构建的统一图像生成基础模型,原生支持文本生成图像、图像编辑以及主体驱动的个性化生成,分辨率最高可达 2048×2048,无需外部 VAE 或独立文本编码器。该模型在 Artificial Analysis 文生图竞技场中首次亮相即位列第 8,是目前领先的开放权重文生图模型之一。
宣布推出 liquid-audio,这是 Liquid AI 端到端语音转语音 LFM 模型(LFM2-Audio-1.5B 和 LFM2.5-Audio-1.5B)的开源仓库,支持交错和顺序生成模式以及微调功能。