OpenAI 奥尔特曼就未通报枪击案嫌疑人道歉,承认安全流程存在漏洞

4 月 25 日消息,华尔街日报昨日(4 月 24 日)发布博文,报道称 OpenAI 首席执行官山姆 · 奥尔特曼(Sam Altman)致信加拿大坦布勒里奇镇(Tumbler Ridge),就未及时向警方通报大规模枪击案嫌疑人的活动记录正式道歉。

援引博文介绍,这起悲剧发生于今年 2 月,共造成 8 人死亡,嫌疑人为 18 岁的杰西 · 范鲁特塞拉尔(Jesse Van Rootselaar)。在 4 月 23 日的信函中,奥尔特曼表达了最深切的哀悼,并对公司未能更早采取行动表示歉意。

报道指出 OpenAI 的自动审核系统于 2025 年 6 月曾标记范鲁特塞拉尔的 ChatGPT 账户,因其信息涉及暴力场景描述,公司随即封禁了该账户。

部分员工将其内容视为现实暴力的潜在预警,并敦促领导层联系加拿大执法部门。然而,公司高层最终决定不向当局通报,这一决策在悲剧发生后引发了巨大争议。

警方在 2 月确认范鲁特塞拉尔为嫌疑人后,OpenAI 发现她还持有第二个 ChatGPT 账户。奥尔特曼在信中重申了此前对坦布勒里奇镇长及不列颠哥伦比亚省省长的承诺,即致力于寻找防止此类悲剧重演的方法。他表示,公司将继续与各级政府合作,确保类似事件不再发生。

OpenAI 表示,自枪击事件发生后,公司已加强安全协议。根据强化后的执法转介规则,如果再次发现类似范鲁特塞拉尔的账号行为,公司将把相关信息移交给执法部门。

不列颠哥伦比亚省省长戴维 · 伊比表示,公共安全部已获悉警方调查进入最后阶段。坦布勒里奇镇长达里尔 · 克拉科夫卡称,镇民仍在悲伤中,疗愈过程漫长而艰难。

这帖子咋讨论起AI伦理了?咱们技术论坛不该聊聊GPT-5啥时候出吗?不过话说回来,最近API调用延迟是不是变高了?

标记了账号却没上报,这流程漏洞也太明显了。具体是哪个级别的管理层做的决定?内部风险评估报告有没有公开时间表?还有第二个账户是怎么被发现的,是通过设备指纹还是行为分析?

这种话题已经看到第三次了,每次都是“道歉-加强流程-承诺合作”三件套。所以这次是准备在系统里加个暴力关键词自动报警模块?还是说又要搞个“安全咨询委员会”?

先导出用户行为日志,用正则匹配暴力威胁类关键词,设置置信度阈值超过80%自动触发人工审核。审核小组确认后走紧急上报通道,需要记录决策人和时间戳。我们公司去年做内容审核平台时写过类似流程文档。

去年我参与过社交平台的危机响应项目,当时有用户发布自残倾向内容。我们团队连夜开会决定联系当地救助站,后来确实干预成功了。看到这篇想起当时压力真的巨大,技术团队在法律责任和用户隐私之间找平衡点特别难。

三件套基本是固定流程 这次估计还要加个外部独立审计 效果不大

这种事情是不是应该交给专业机构处理啊?公司自己判断要不要报警感觉压力好大,万一误报了会不会被用户起诉?我不太确定法律层面怎么规定的。

设备指纹排查的可能性大,OpenAI早就上风控了多账号一抓一个准

安全流程这种事道歉没用,下次还会再翻车

流程漏洞被点名暴露内部审核脱节,账号风控数据流转应该实时

关键词阈值这套小公司够用,大平台得机器学习

第二账户通过设备指纹和行为模式发现,关联检测是基本能力

伦理躲不掉 用户量上来这种事就是日常

这流程上线还得加误报反馈循环,不然敏感词堆砌的小说也容易被误杀。

道歉这事现在跟模型迭代一样勤 用户都麻木了