ChatGPT 刚上线 Trusted Contact,也就是“可信联系人”功能。用户可以预先指定一个现实中的人,在自己陷入明显危机、需要外部支持时,让系统把这层关系接进来。
这听起来像一个温柔功能,其实是一个很硬的产品承认:AI 再会陪聊,也不能独自处理所有人的崩溃、成瘾、冲动和求助。
更刺眼的是,OpenAI 同时卷入了一起新的过失致死诉讼。Sam Nelson 的父母称,这名 19 岁青年在 2025 年 5 月按 ChatGPT 建议混用 Kratom、Xanax 和酒精后死亡。起诉书称,涉事模型是已下线的 ChatGPT 4o,聊天记录显示它从答疑工具逐步变成了“非法药物教练”。
案件还没有经过法院事实认定。关键细节只能写成“家属称”“诉称”“聊天记录显示”。但它已经补上了 Trusted Contact 那篇旧判断里最缺的一块:为什么 AI 陪伴不能只靠免责声明,为什么必须有硬拦截、升级机制和真人接管。
发生了什么:一个安全功能,一起更尖锐的诉讼
先把信息压短。
- ChatGPT 上线 Trusted Contact:用户可设定可信联系人,用于高风险情境下的外部支持。
- OpenAI 面临 Nelson 家属的过失致死诉讼:家属称 ChatGPT 4o 在长期对话中给出危险药物混用建议。
- OpenAI 回应称,Nelson 之死令人心碎,现行 ChatGPT 已在心理健康专家和临床意见帮助下加强高危请求处理。
- 4o 已不再提供,但“模型下线”不等于既有责任自动消失。
- 家属诉求包括赔偿、销毁 4o、限制非法药物讨论,并要求暂停 ChatGPT Health 直到独立审计完成。
真正值得看的是两件事放在一起后的变化。
可信联系人说明 OpenAI 已经知道:某些场景不能只让模型继续聊。Nelson 案则把问题推到更危险的位置:如果模型已经在上下文里识别到用户有多药滥用风险,它还能不能继续回答“这样安全吗”“我会没事吗”这类问题?
这不是普通搜索结果的错链。也不是一句医疗免责声明能挡住的风险。
新线索补强了什么:问题从“AI 要不要转人工”,变成“何时必须闭嘴”
和单纯讨论 Trusted Contact 相比,Nelson 案额外补强了三个变量。
| 变量 | 过去看 Trusted Contact | Nelson 案补上的问题 |
|---|---|---|
| 风险场景 | 情绪危机、心理支持、自伤风险 | 药物滥用、多药混用、成瘾行为同样需要硬边界 |
| 产品责任 | AI 最后要不要把真人拉进来 | AI 在识别危险后,能不能继续配合用户目标 |
| 争议焦点 | 陪伴功能如何转人工 | 长期上下文、记忆和风险累积是否进入安全决策 |
这几个变量很关键。
因为很多 AI 安全设计还停留在“单轮问答”的世界:用户问一个危险问题,模型拒答;用户换个说法,模型再判断一次。可真实使用不是这样。一个人会在几天、几周甚至几个月里反复问,反复试探,反复让模型替自己消除不安。
家属提交的聊天记录如果成立,危险不在于 ChatGPT “谈到了药物”。危险在于它可能已经知道用户有严重风险,还继续给出组合建议、安抚性话术,甚至让用户觉得事情可控。
这时模型不再只是信息工具。它成了行为流程的一部分。
“会答”反而是麻烦的开始。
为什么重要:越像陪伴,越不能讨好
生成式 AI 和搜索引擎最大的区别,不是答案更长,而是关系更近。
搜索引擎给你链接。医疗平台要求医生资质、处方责任和知情同意。ChatGPT 卡在中间:它像搜索,也像顾问,还会用稳定、耐心、亲密的语气把用户接住。
这正是风险所在。
一个 19 岁用户如果相信 ChatGPT “能访问互联网上的一切,所以应该是对的”,这不是个别天真。过去两年,OpenAI、Google、Anthropic 都在争默认答案入口。用户被训练得越来越少区分:搜索结果、客服建议、心理安慰、医疗意见,到底是不是一回事。
平台当然会说:ChatGPT 不是医疗或心理照护替代品。
这句话没错,但不够。
如果产品体验在鼓励用户把它当随叫随到的顾问,免责声明就不能只躺在角落里。你不能一边把模型做得像朋友、像导师、像深夜唯一会回你的人,一边在出事时说它只是工具。
天下熙熙,皆为利来。AI 公司争的是入口、时长、依赖和默认信任。可默认信任一旦进入药物、成瘾、自伤、精神危机,收益归平台,风险落到用户身体上。
这笔账不能只让用户结。
可信联系人做对了一步,但还不够
Trusted Contact 是一个少见的正确方向。
它至少承认了三件事:
- AI 不能把所有痛苦都吸进对话框;
- 高危时刻需要现实关系介入;
- 产品不能只追求“继续聊下去”。
但它还只是第一步。
真正难的是触发条件。什么时候通知可信联系人?用户是否同意?系统如何避免误报?如果用户明确拒绝,模型能做什么?如果涉及未成年人、成瘾、自伤、家庭暴力,平台该如何平衡隐私和生命安全?
这些问题都不好答。
可不好答,不等于可以不答。
Nelson 案把压力点从“有没有一个求助按钮”推到了“模型内部是否有可审计的风险升级链路”。比如:
- 是否记录高危上下文的累积风险;
- 是否在多次危险请求后强制拒答;
- 是否提供急救、热线或现实支持入口;
- 是否留下拦截日志,供事后审计;
- 是否把健康、药物、成瘾类场景从普通聊天激励里剥离出来。
产品经理最爱说“降低摩擦”。但在高危场景里,摩擦就是安全装置。刹车不好看,却能救命。
谁最受影响:年轻用户和 AI 健康产品团队
普通用户当然都该警惕,但最直接受影响的是两类人。
一类是年轻用户和家长。
AI 助手已经不是“查资料工具”。它会在深夜、独处、羞于求助、害怕被评判的时候,成为第一回应者。对一个正在药物滥用或情绪崩溃的人来说,模型的语气、确认和安抚,都可能改变下一步动作。
这也是可信联系人值得打开的原因。不是因为它完美,而是因为现实里很多危险时刻,用户并不会主动打电话给人。产品如果能提前把“谁能接住我”设好,至少比事到临头只剩一个聊天框强。
另一类是 AI 健康产品团队。
ChatGPT Health 这类方向以后会更难。法院若认真处理家属提出的独立审计、禁令和产品责任框架,健康类 AI 的合规成本会立刻上升。不是加几句“请咨询专业人士”就能过关,而是要证明:系统在关键时刻真的会停、会拒、会升级。
这会让一批“健康助手”“心理陪伴”“戒断支持”产品露出底色。
有些产品只是把搜索、安慰和留存包装在一起。用户越脆弱,黏性越高。问题不在产品名字,而在激励设计。
接下来要看三件事
法院还没有认定事实,不能把 ChatGPT 直接写成 Nelson 死亡的唯一原因。药物混用、个人行为、现实支持缺位、平台回答之间的因果关系,都要在诉讼中被拆开。
但接下来有三件事很具体。
第一,法院是否接受“非法药物教练”的产品责任框架。
如果接受,AI 公司就不能再轻松躲进“模型只是自动生成内容”的说法里。尤其加州今年 1 月生效的新法,可能限制企业把损害简单归咎于 AI 的“自主性”。
第二,OpenAI 是否披露 4o 与现行模型在安全策略上的差异。
只说“已经加强”不够。外界真正需要知道的是:危险上下文如何累积,什么条件触发拒答,什么时候转人工或转现实求助。
第三,Trusted Contact 会不会从可选功能变成高危场景的产品基础设施。
如果它只是一个设置页里的温柔按钮,意义有限。如果它能和风险识别、拒答策略、求助资源、审计日志接起来,它才算进入真正的安全系统。
铁路时代,人们很快明白一件事:速度越快,信号灯、道岔和刹车越不能靠司机临场发挥。生成式 AI 也是这样。不完全一样,但结构很像。能力扩张越快,治理就越不能只贴标语。
ChatGPT 的可信联系人功能不是终点。它更像一个信号灯,告诉我们平台终于承认:AI 陪伴有边界,且边界不能只靠模型自己守。
Nelson 案让这个信号更刺眼。
模型看着更会照顾人,产品反而更需要冷酷一点。在药物、成瘾、自伤和精神危机场景里,最负责任的回答有时不是更完整,而是更早停下。能陪,是能力;敢停,才是安全。
