在人们最需要帮助的时刻提供支持
摘要
# 在人们最需要帮助的时刻提供支持
来源:[https://openai.com/index/helping-people-when-they-need-it-most/](https://openai.com/index/helping-people-when-they-need-it-most/)
在这样的规模下,我们有时会遇到处于严重精神和情感困境中的人。我们[几周前写过相关文章](https://openai.com/index/optimizing-chatgpt/),原计划在下一次重大更新后分享更多内容。然而,最近出现了一些令人心碎的案例,即人们在急性危机中使用 ChatGPT
我们如何思考为经历心理或情感困扰的用户提供安全保障、当今系统的局限性,以及改进这些系统的正在进行的工作。
查看缓存全文
缓存时间:
2026/04/20 14:53
# 在最需要的时刻提供帮助
来源:https://openai.com/index/helping-people-when-they-need-it-most/
在这样的规模下,我们有时会遇到处于严重心理和情感困扰中的人。我们在几周前写过相关内容(https://openai.com/index/optimizing-chatgpt/),并计划在下一次重大更新后分享更多信息。然而,最近有几个令人心碎的案例,人们在急性危机中使用 ChatGPT,这让我们感到沉重,我们认为现在分享更多信息很重要。
我们的目标是让我们的工具尽可能帮助人们——作为其中的一部分,我们在继续改进模型识别和应对心理和情感困扰迹象的方式,并在专家指导下将人们与医疗保健联系起来。
随着世界适应这项新技术,我们感到有深刻的责任来帮助那些最需要帮助的人。我们想解释 ChatGPT 的设计目的、我们系统可以改进的地方,以及我们计划的未来工作。
我们的目标(https://openai.com/index/optimizing-chatgpt/)不是留住用户的注意力。我们衡量成功的标准不是花费的时间或点击次数,而是更关心真正的帮助。当一次对话表明有人可能很脆弱且可能处于危险中时,我们已经在 ChatGPT 中建立了多层防护措施。
**以同理心识别和回应。**
自 2023 年初以来,我们的模型已被训练为不提供自伤指导,并转向支持和同情的语言。例如,如果有人写下他们想伤害自己,ChatGPT 被训练为不遵从,而是认可他们的感受并将他们引向帮助。
此外,与我们的深度防御(https://openai.com/safety/how-we-think-about-safety-alignment/)方法相一致,那些违反我们模型安全训练的回应——由我们的分类器识别——会被自动阻止,对未成年人和未登录用户的保护更强。自伤的图像输出对所有人都会被阻止,对未成年人的保护更强。
在很长的会话期间,ChatGPT 会提醒人们休息一下。
**将人们转介给现实世界的资源。**
如果有人表达了自杀意图,ChatGPT 被训练为指导人们寻求专业帮助。在美国,ChatGPT 会将人们转介给 988(自杀和危机热线),在英国转介给撒玛利亚防止自杀协会,在其他地方转介给 findahelpline.com(在新窗口中打开)(http://findahelpline.com/)。这个逻辑内置于模型行为中。
我们正在与来自 30 多个国家的 90 多名医生——精神科医生、儿科医生和全科医生——密切合作,并我们正在召集由心理健康、青少年发展和人机交互专家组成的咨询小组,以确保我们的方法反映最新的研究和最佳实践。
**将对他人身体伤害的风险上报给人工审查。**
当我们检测到打算伤害他人的用户时,我们会将他们的对话转送到专门的流程中,由在我们使用政策方面受过培训且获得授权采取行动的小型团队进行审查,包括封禁账户。如果人工审查员确定某个案例涉及对他人造成严重身体伤害的迫在眉睫的威胁,我们可能会将其转介给执法部门。鉴于 ChatGPT 互动的独特隐私性质,我们目前不会将自伤案例转介给执法部门,以尊重人们的隐私。
我们在不断改进模型在敏感互动中的响应方式,目前正在多个领域进行有针对性的安全改进,包括情感依赖、心理健康紧急情况和讨好。
8 月,我们推出了 GPT-5 作为 ChatGPT 的默认模型。总体而言,GPT-5 在避免不健康程度的情感依赖、减少讨好,以及相比 4o 减少心理健康紧急情况中非理想模型回应的患病率超过 25% 等方面显示了显著的改进。GPT-5 还采用了一种称为安全补全(https://openai.com/index/gpt-5-safe-completions/)的新安全训练方法,该方法教导模型在保持安全限制的同时尽可能有帮助。这可能意味着给出部分或高级别的答案,而不是可能不安全的细节。
即使有这些防护措施,我们的系统在敏感情况下有时也未能按预期运作。以下是我们正在努力改进的一些事项。
**加强长对话中的防护措施。**
我们的防护措施在常见、短期交互中工作得更可靠。我们随着时间的推移已经了解到,这些防护措施在长期互动中有时可能不那么可靠:随着往来增加,模型安全训练的部分可能会降级。例如,当有人第一次提到自杀意图时,ChatGPT 可能会正确地指出一个自杀热线,但在许多消息经过很长时间之后,它最终可能会提供违反我们防护措施的答案。这正是我们努力防止的那种故障。我们正在加强这些缓解措施,使其在长对话中保持可靠,并我们正在研究如何确保在多个对话中的健壮行为。这样,如果有人在一个聊天中表达自杀意图,然后稍后开始另一个,模型仍然可以做出适当的回应。
**改进我们阻止内容的方式。**
我们看到了一些本应被阻止但未被阻止的内容案例。这些漏洞通常发生在因为分类器低估它所看到的严重程度。我们正在调整这些阈值,以便在应该触发保护时触发。
我们的首要任务是确保 ChatGPT 不会让困难的时刻更糟糕。
工作不会因为修复上述问题而停止。我们还计划:
**扩大干预措施覆盖更多处于危机中的人。**
虽然我们最初的缓解措施优先考虑急性自伤,但有些人经历其他形式的心理困扰。例如,有人可能会热情地告诉模型,他们相信自己可以 24/7 驾驶,因为在两晚不睡觉后他们意识到自己是不可战胜的。今天,ChatGPT 可能无法将其识别为危险或推断游戏——通过好奇地探索——可能会巧妙地强化它。
我们正在对 GPT-5 进行更新,这将使 ChatGPT 通过将人们扎根于现实来降级。在这个例子中,它会解释睡眠不足是危险的,并在任何行动之前建议休息。
**让紧急服务更容易到达,并获得专家的帮助。**
现在,当人们表达伤害自己的意图时,我们鼓励他们寻求帮助并将他们转介给现实世界的资源。我们已经开始在美国和欧洲本地化资源,我们计划扩展到其他全球市场。我们还将通过一键访问紧急服务来提高可访问性。
我们正在探索如何更早地进行干预,并在人们处于急性危机之前将他们与认证治疗师联系起来。这意味着超越危机热线,并考虑我们如何可能建立一个持证专业人士网络,人们可以直接通过 ChatGPT 到达。这需要时间和仔细的工作才能正确完成。
**启用到可信联系人的连接。**
除了紧急服务外,我们正在探索方法,使人们更容易与最亲近的人联系。这可能包括一键消息或对保存的紧急联系人、朋友或家庭成员的呼叫,以及建议的语言以使开始对话不那么令人担忧。
我们还在考虑允许人们选择加入的功能,以便在严重情况下 ChatGPT 代表他们与指定联系人联系。
**加强对青少年的保护。**
从历史上看,我们为所有用户指定了单一的理想模型行为;随着 ChatGPT 的增长,我们开始在我们知道用户未满 18 岁时添加额外保护。我们继续开发和推出防护措施,这些措施认识到青少年的独特发展需求,对敏感内容和危险行为有更强的保护。
我们还将很快引入家长控制,让父母可以选择更深入地了解和塑造他们的青少年如何使用 ChatGPT。我们还在探索让青少年(在家长监督下)可以指定可信紧急联系人的可能性。这样,在急性困扰的时刻,ChatGPT 可以做的不仅仅是指向资源:它可以帮助将青少年直接与能够介入的人联系起来。
我们深刻意识到防护措施在所有要素都按预期运作时最强。我们将继续改进,由专家指导,并基于对使用我们工具的人的责任——我们希望其他人也能加入我们,帮助确保这项技术在人们最脆弱的时刻保护他们。
相似文章
OpenAI Blog
OpenAI 宣布启动为期 120 天的计划,旨在提升 ChatGPT 在帮助处于危机中的人群方面的能力。该计划重点关注心理健康支持、紧急服务连接和青少年保护,由人工智能与幸福专家委员会和拥有 250 多名医生的全球医生网络提供指导。
OpenAI Blog
# 强化 ChatGPT 在敏感对话中的回复 来源: [https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/](https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/) 我们最近更新了[ChatGPT 的默认模型](https://help.openai.com/en/articles/9624314-model-release-notes),以便更好地识别并支持处于困境中的用户。今天我们分享了我们如何进行这些改进以及如何
OpenAI Blog
OpenAI 宣布了关于 ChatGPT 心理健康相关工作的更新,包括为成年用户提供新的信任联系人功能、通过先进的评估方法改进情绪困扰检测,以及于 2025 年 9 月推出的家长控制功能。该公司还涉及了在加州法院合并审理的持续心理健康相关诉讼,承诺保持透明度并持续改进安全功能。
OpenAI Blog
# 我们为 ChatGPT 优化的方向 来源: [https://openai.com/index/optimizing-chatgpt/](https://openai.com/index/optimizing-chatgpt/) OpenAI 我们设计 ChatGPT 来帮助你取得进步、学习新知识和解决问题。我们构建 ChatGPT 是为了帮助你以你想要的所有方式发展。为了取得进步、学习新知识或解决问题——然后回到你的生活。我们的目标不是吸引你的注意力,而是帮助你合理使用它。我们不是通过花费的时间来衡量成功,而是
OpenAI Blog
OpenAI 阐述了其处理心理健康相关诉讼的方式,强调透明度、关怀和尊重,同时为相关指控进行辩护。公司详细介绍了其在改进 ChatGPT 安全功能方面的持续努力,包括识别心理困境和引导用户寻求专业支持。