来自 Blog 的文章
NVIDIA与David Silver的Ineffable Intelligence已达成合作,共同构建大规模强化学习的基础设施,专注于即时生成数据并利用NVIDIA下一代平台的管线。
Nous Research 的 Hermes Agent 是一个针对本地使用优化的自我改进的开源 AI 代理框架,已成为 OpenRouter 上使用最广泛的代理,现在由 NVIDIA RTX PC 和 DGX Spark 提供加速性能。
一个网页工具实验,展示了如何通过拦截 fetch 请求并提示用户将域名加入白名单,来处理沙箱 iframe 中的内容安全策略(CSP)错误。该工具通过 Codex 桌面应用使用 GPT-5.5 构建。
Datasette 1.0a29 已发布,包含新的实用方法、对空表格的 UI 改进,以及在 Codex CLI 协助下修复的竞争条件等错误修复。
本文分享了一条来自 TikTok 视频的讽刺性语录,该视频标题为“在 AI 裁员中生存的道德指南”。视频中幽默地建议,通过使用“Ralph Loops”等流行语和虚假的自动化主张来确保获得晋升和股权。
Mitchell Hashimoto 观察到,大多数技术决策者优先考虑职位安全而非创新,这导致他们倾向于采用安全且流行的解决方案(如 AI 上下文引擎),而不是构建具有防御性的技术。
OpenAI 展示了财务团队如何利用 Codex 自动化生成月度业务回顾(MBR)叙述、清理财务模型等任务,并通过与 Excel 和 Slack 等工具集成来提高效率。
MIT Open Learning 推出了“Universal AI”(通用人工智能),这是一个在线、自定进度的项目,旨在通过模块化课程和适应性工具,使全球非技术背景受众能够轻松掌握 AI 能力。
麻省理工学院开放学习项目启动“通用学习”新倡议,利用 MIT Learn 平台和 AskTIM AI 助手扩大全球跨学科教育机会,首先推出通用人工智能课程。
NVIDIA 与 SAP 扩大了双方的合作,将 NVIDIA OpenShell 集成到 SAP Business AI Platform 中,从而在企业系统中实现专业 AI 智能体的安全且受管控的部署。
本文分析了在 MacBook Pro 上本地运行 AI 推理的可行性,对比了本地 Qwen 35B 模型与云端 Claude Opus 4.5。结论是,对于常规任务,本地模型速度快 2 倍,尽管在能力上略有差距,但仍是日常工作量中一半任务的实用选择。
据报道,OpenAI 联合创始人 Ilya Sutskever 持有的公司股份价值约为 70 亿美元。
文章认为,真正的人工智能创造力可能需要类似于人类情感的主体体验和内在驱动力,这引发了关于创造具有类意识系统的重大伦理问题。
本文介绍了 A²RD,这是一种利用智能体自回归扩散生成一致性长视频的新型架构。该架构提出了检索-合成-优化-更新(Retrieve–Synthesize–Refine–Update)循环机制,并推出了一个新的基准测试 LVBench-C,以解决长时视频合成中的语义漂移问题。
AutoTTS 是一个开源工具,它利用代理发现机制,自动为大型语言模型(LLM)寻找最优的测试时扩展策略,通过基于重放的评估显著降低 token 消耗和成本。
本文分析了 Cerebras 即将进行的 IPO,将其视为 AI 硬件领域“推理变革”的信号。文章指出,尽管 Nvidia 在基于 GPU 的训练领域占据主导地位,但为了支持推理工作负载,AI 算力的未来正变得越来越异构。
在 Google I/O 大会前夕,Google 的 Gemini Omni 视频模型已进入有限测试阶段。尽管其原始生成保真度落后于竞争对手,但该模型展现了强大的视频编辑能力。
埃隆·马斯克宣布,xAI 将完全并入 SpaceX,成为一个名为 SpaceXAI 的新部门,标志着将人工智能开发与太空基础设施相结合的重大企业重组工作完成。
AutoScort24 在其工程团队及更广泛的员工群体中部署了 OpenAI 的 Codex 和 ChatGPT,大幅缩短了开发周期并提升了代码质量。