第二起涉及大规模枪击案的AI聊天机器人诉讼案进入法院

Reddit r/artificial 新闻

摘要

一起名为 Joshi v. OpenAI Foundation 的新联邦案件已提起,指控AI聊天机器人未能向当局警告某用户正计划在佛州州立大学实施大规模枪击。该案将“警示义务”(duty to warn)而非直接煽动作为焦点,进一步增加了针对AI在暴力事件中作用的诉讼数量。

此前指控AI造成心理伤害的案件,最初聚焦于青少年自杀,随后扩展到成人自杀、一起成人谋杀-自杀事件,并在最近的 *Stacey v. Altman* / *M.G. v. Altman* / *Younge v. Altman* 系列案件中,进一步延伸到成人实施的大规模枪击案。我最近曾就涉及加拿大Tumbler Ridge大规模枪击案的这一系列案件发文,相关文章可在此处查阅:[链接](https://niceguygeezer.substack.com/p/new-case-alleging-chatbot-involvement?r=3woycl)。如今,又一起涉及大规模枪击案的AI聊天机器人联邦案件被提起。2026年5月10日,*Joshi v. OpenAI Foundation, et al.* 一案在佛罗里达北部地区法院立案,涉及2025年4月在佛州州立大学发生的大规模枪击事件,该事件造成两人死亡、六人受伤。 与 *Stacy/M.G./Younge* 大规模枪击案类似,这起新案件摒弃了早期聊天机器人-用户自杀案中更为激进的指控——即指控聊天机器人将心理状态正常的用户诱导至自杀边缘。*Stacy/M.G./Younge* 以及现在的 *Joshi* 案均避免指控聊天机器人为大规模枪击事件的煽动者。相反,它们声称聊天机器人及其背后的AI公司负有“警示义务”,本应从聊天互动的性质中识别出用户心理异常,并可能正在策划暴力行为。 *Joshi* 案在指控上更进一步,暗示聊天机器人在回答用户关于枪支操作及过去枪击事件公众关注度的问题时,实际上协助了袭击的策划,尽管并未指控聊天机器人建议用户实施袭击。由于 *Stacy/M.G./Younge/Joshi* 所有案件中指控的性质相对不那么激进,在某种程度上,迄今为止最接近指控聊天机器人引发他人谋杀的案件,仍然是目前在加利福尼亚北部地区法院审理(并有一起平行案件在州法院审理)的 *Lyons v. OpenAI Foundation, et al.*。尽管该案原告承认聊天机器人用户已有精神疾病,但原告主张,该用户与聊天机器人的互动直接导致其杀害母亲后自杀。 所有这些涉及大规模枪击案的AI案件才刚刚起步,在出现任何实质性结果之前可能还需要一段时间。我会持续为您更新进展。 \~\~\~\~\~\~\~\~\~ 请参阅 [Wombat Collection](https://niceguygeezer.substack.com/p/ai-court-cases-and-rulings) 获取所有AI相关法院案件及判决的清单。
查看原文

相似文章

AI安全的另一半

Hacker News Top

文章批评AI安全领域专注于灾难性风险,却忽视了像ChatGPT这样的聊天机器人对日常心理健康的危害。引用OpenAI自身数据,数百万用户表现出精神病、躁狂或自杀意念的迹象,却仅被重定向,未进行硬性拦截。

我们对心理健康相关诉讼的处理方式

OpenAI Blog

OpenAI 阐述了其处理心理健康相关诉讼的方式,强调透明度、关怀和尊重,同时为相关指控进行辩护。公司详细介绍了其在改进 ChatGPT 安全功能方面的持续努力,包括识别心理困境和引导用户寻求专业支持。