英国公司应采取措施限制前沿AI模型风险
摘要
英国公司被建议采取行动降低前沿AI模型的风险,反映出业界对监管与安全的日益关注。
暂无内容
相似文章
前沿AI监管:管理新兴的公共安全风险
OpenAI提议了一个针对可能造成公共安全风险的「前沿AI」模型的监管框架,倡导制定标准流程、注册/报告要求和合规机制,包括部署前风险评估和部署后监测。
加强我们的前沿安全框架
DeepMind 发布了第三版前沿安全框架,扩展了风险范围以包括有害操纵和不对齐风险,并完善了风险评估流程和高级 AI 模型的治理协议。
OpenAI 的前沿风险应对方案
OpenAI 公布了其应对前沿 AI 风险的方案细节,并宣布了在 2023 年 7 月自愿承诺的安全措施取得的进展,包括发布 DALL-E 3 系统卡和开发新的准备框架以管理先进 AI 系统可能带来的灾难性风险。
前沿风险与应对准备
OpenAI 宣布了其应对准备挑战赛的获奖者,该赛事识别了与前沿 AI 系统相关的独特风险。前十名提交作品突出了包括金融系统操纵、信息泄露、医疗伤害、网络攻击和基于说服的威胁等问题,其中 70% 的参赛作品强调了 AI 增强恶意说服能力的潜力。
前沿模型论坛更新
前沿模型论坛宣布创建一个新的 AI 安全基金,初期资金超过 1000 万美元,由主要 AI 公司(Anthropic、Google、Microsoft、OpenAI)和慈善合作伙伴提供支持,用于推进独立的 AI 安全研究。该基金将重点关注开发模型评估和红队测试技术,以评估前沿 AI 系统的危险能力。