标签
OpenAI、Google、Microsoft 和 Anthropic 启动前沿模型论坛,旨在协调行业、政府和民间社会之间的AI安全标准、研究和信息共享。该倡议重点关注识别最佳实践、推进AI安全研究以及建立安全信息共享机制。
OpenAI提议了一个针对可能造成公共安全风险的「前沿AI」模型的监管框架,倡导制定标准流程、注册/报告要求和合规机制,包括部署前风险评估和部署后监测。
OpenAI向NTIA提交正式意见,阐述其基础模型负责任开发的方法,并支持在人工智能生态系统中建立水平和垂直问责框架。
乔治城大学安全与新兴技术中心(CSET)战略总监Helen Toner已被任命为OpenAI董事会成员。该任命反映了OpenAI对AI安全和负责任技术部署的承诺。
OpenAI与领先研究机构合作共同撰写了一份综合论文,预测AI可能被恶意使用的方式并提出缓解策略。该研究强调承认AI的双重用途特性、借鉴网络安全实践,以及扩大围绕AI安全风险的利益相关者讨论。
Box 集成 NVIDIA Agent Toolkit,提供安全、受控的基础设施,加速企业 RFP 和合同处理等工作流。
ArcKit 是一个开源企业架构治理工具包,提供由 AI 辅助的工作流程,涵盖架构原则、风险管理、商业论证、技术研究和设计评审,具有原生 Claude Code 集成和对 Azure、AWS 以及 Google Cloud 的支持。