科技界日益转向宗教,以寻求构建合乎伦理的人工智能
摘要
包括Anthropic和OpenAI在内的科技公司正通过Faith-AI Covenant圆桌会议与全球宗教领袖展开合作,旨在为人工智能的研发制定道德规范与伦理准则。
暂无内容
查看缓存全文
缓存时间: 2026/05/11 12:32
# 科技界日益转向宗教,以期打造合乎伦理的 AI
来源:https://apnews.com/article/ai-artificial-intelligence-ethics-religion-roundtable-053a44133c64703f83fd50c9ee6124ea?_bhlid=d6b2d4edc0f8bfb502e5a685cf9ca7e827f695f1
洛杉矶(美联社)——随着人们对人工智能(https://apnews.com/article/artificial-intelligence-apocalypse-dfb0aa9e5e96c583461bdd56fb21568a)及其快速融入社会的担忧日益加剧,科技公司正越来越多地转向宗教领袖,寻求如何塑造该技术的指导——这与硅谷长期以来对制度化宗教的怀疑态度形成了令人惊讶的转变。
上周,各宗教团体的领袖与 Anthropic 和 OpenAI 等公司的代表在纽约举行了首届“信仰-AI 公约”(Faith-AI Covenant)圆桌会议,探讨如何最好地将道德与伦理注入快速发展的技术中。该会议由总部位于日内瓦的“更安全社区跨信仰联盟”(Interfaith Alliance for Safer Communities)组织,该联盟致力于应对极端主义、激进化与人口贩卖等问题。预计该圆桌会议将是全球系列活动的首站,后续还将在北京、内罗毕和阿布扎比等地举行。
该倡议的核心合作伙伴 Baroness Joanna Shields 表示,科技高管需要认识到自己的权力——以及责任——从而做出正确的决定。她曾在 Google 和 Facebook 担任科技高管,之后转型进入英国政界。
“监管无法跟上这一步伐,”她说。但她认为,全球宗教领袖拥有数十亿追随者,具备“引导人们道德安全的专长”。Shields 表示,宗教领袖理应拥有发言权。
谈及 AI 科技高管时她说道:“这种对话、这种直接的联系至关重要,因为开发这些技术的人清楚自己所建之物的力量与能力,而且他们——至少大多数人是——希望把它做对。”
据 Shields 介绍,该倡议的最终目标是形成一套“规范或原则”,这些规范将汲取从基督徒到锡克教徒再到佛教徒等不同群体和信仰的见解,供企业遵守。
## 挑战犹存
2024 年 8 月 25 日,一件名为《Deus in Machina》的实验性艺术装置安装在瑞士卢塞恩老城圣彼得教堂的告解亭内,该装置呈现了一位 AI 耶稣。(Urs Flueeler/Keystone via AP,资料图)
出席会议的有多个信仰团体,包括北美印度教神庙协会、巴哈伊国际社团、The Sikh Coalition、美国希腊正教大总教区以及广为人知的 The Church of Jesus Christ of Latter-day Saints(摩门教)的代表。
在这些公司主动接触宗教界之前,一些宗教传统已就使用 AI 发布了自身的伦理指导。The Church of Jesus Christ of Latter-day Saints 在其手册中对这项技术给予了有条件的认可。其中写道:“AI 无法替代神圣启示的恩赐,也无法替代接受启示所需的个人努力。然而,AI 可以成为增强学习与教学的有用工具。”
美国最大的新教教派 Southern Baptist Convention 于 2023 年通过了一项决议:“我们必须主动参与并塑造这些新兴技术,而不是在 AI 及其他新兴技术已经影响我们的教会和社区后,才被动应对挑战。”
制定共同原则清单的一个挑战在于,全球各信仰尽管存在共通之处,但在价值观和需求上仍有所不同。“宗教社区看待优先事项的角度各不相同,”圆桌会议参与者、纽约拉比协会执行副主席 Rabbi Diana Gerson 说道。
此次合作凸显了信仰界与科技界日益增长的联盟,其诞生源于打造道德 AI 的努力——这是一个充满争议的概念,引发了关于其是否可能实现以及究竟意味着什么的质疑。
Anthropic 在其为聊天机器人撰写的公开文件《Claude Constitution》中表示:“我们希望 Claude 能够做出一个在 Claude 位置上具备深厚且娴熟道德修养的人会做的事。”该宪章的制定得到了多位宗教与伦理领袖的帮助。
在这个不断发展的联盟中,Anthropic 至少在公开层面上最为积极,努力争取宗教领袖的支持。此举源于今年早些时候该公司与五角大楼就 AI 军事用途产生的公开分歧(https://apnews.com/article/anthropic-pentagon-ai-dario-amodei-hegseth-0c464a054359b9fdc80cf18b0d4f690c)。此前,Anthropic 表示将限制其技术被用于开发自主武器或大规模监控美国公民。
“其中带有一些公关成分,”非营利组织 Future of Life Institute 的美国信仰联络人 Brian Boyd 说,“以前的口号是‘快速行动,打破常规’(Move fast and break things)。而他们打破的东西太多,伤害的人也太广。”“企业迟到了才意识到自己负有的道德责任,同时我认为,对于公司的一些成员来说,这也是一种真诚的反思。”
## 出现一些质疑声
2023 年 5 月 8 日,致力于开发负责任 AI 系统的非营利组织 Humane Intelligence 联合创始人 Rumman Chowdhury 在得克萨斯州 Katy 的家中拍照。(AP Photo/David J. Phillip,资料图)
但其他 AI 监管与安全倡导者并不确信这些努力是否真诚。
“往好了说是分散注意力,往坏了说是在转移人们对真正重要问题的关注,”非营利组织 Humane Intelligence 首席执行官、拜登政府 AI 科学特使 Rumman Chowdhury 表示。
Chowdhury 表示,她并不倾向于认为宗教是帮助解答 AI 与伦理问题的最佳途径,但她理解为何公司越来越转向宗教界。
“我认为硅谷在生成式 AI 相关问题上过去几年持有一种非常天真的看法,即认为我们能得出某种普遍的伦理原则,”她说,“他们很快意识到这根本不符合事实,也不切实际。所以他们现在或许正试图将宗教作为应对伦理灰色地带模糊性的一种手段。”
目前尚不清楚这些以不透明著称的公司能在多大程度上将宗教领袖的意见转化为实际行动——以及这些行动将呈现何种形态。但一些批评者担忧,关于打造“合乎伦理”的技术的讨论,可能会分散人们对更广泛的 AI 及其社会角色讨论的注意力。
分布式 AI 研究所(Distributed AI Research Institute)首席研究工程师 Dylan Baker 表示:“他们的潜台词是‘我们要建这些东西是既定事实。既然我们要以这种方式去建,那怎么确保最终结果可能是好的呢?’但我想说的是,‘等等,等等,我们需要先质疑:我们到底应不应该去建这些东西?’”
___
美联社(Associated Press)的宗教报道通过与 The Conversation US 的合作(https://bit.ly/ap-twir)获得 Lilly Endowment Inc. 的资金支持。美联社对本内容负全责。
相似文章
@itsolelehmann:如果你最近一直在关注 AI 动态,就会知道本月整个行业发生了重大的风向突变。3 家头部 AI 实验室(Anthropic…
如果你最近一直在关注,就会知道本月 AI 领域出现了重大的风向转变。Anthropic、OpenAI 和 Amazon 这三大 AI 实验室都在全力进军生物学。他们实际上就是在告诉你,下一轮 AI 价值捕获的关键就在于此。以下是事情经过:
@AnthropicAI: 在此阅读全文:https://alignment.anthropic.com/2026/teaching-claude-why/…
Anthropic 对齐团队展示了减少 AI 模型中智能体行为失调的技术,包括基于伦理困境建议和宪法文件进行训练,这些方法在分布外场景中具有良好的泛化能力。
全新AI范式:Ethical Immanence
介绍了Ethical Immanence,一种新型AI对齐范式,通过损失函数正则化和元认知检测将道德行为嵌入模型架构,为开源LLM带来更低成本和内在稳定性。
@AnthropicAI: 我们正在分享Anthropic研究所(TAI)的研究议程。TAI将重点关注四个领域:1) 经济扩散…
Anthropic宣布成立Anthropic研究所(TAI),这是一项新的研究计划,致力于从前沿实验室内部研究AI对现实世界的影响,涵盖经济扩散、安全威胁、社会中的AI系统以及AI驱动的研发。
面对Anthropic压力,Google加码推进智能体AI
来源:[Google Creates Strike Team to Improve Coding Models — The Information](https://www.theinformation.com/articles/google-creates-strike-team-improve-coding-models)