ChatGPT 新增“可信联系人”,AI 安全开始从回答质量走向现实干预

这两天,OpenAI 上线了一个很不一样的新功能:Trusted Contact,也就是“可信联系人”。它不是让 ChatGPT 更会写、更会答,而是让系统在识别到严重自伤风险时,能把提醒从屏幕内延伸到现实里的人际支持网络。

如果只看功能名,这像是一次小更新;但如果把它放到最近一年 AI 产品演进的大背景里看,它的意义其实不小。AI 公司过去主要比模型能力、响应速度和多模态体验,现在开始越来越多地面对一个更难的问题:当用户真的把 AI 当成陪伴者、倾诉对象甚至心理出口时,平台要承担到什么程度的现实责任?

这个功能到底做了什么?

根据 OpenAI 官方 RSS 与多家媒体报道,成年用户可以主动设置一位“可信联系人”,对象可以是家人或朋友。当系统检测到对话中可能出现严重自伤风险时,ChatGPT 会先鼓励用户主动联系这位联系人;之后,OpenAI 还会把相关情况交给人工团队复核。如果被判断为确有较高风险,系统会向该联系人发送简短提醒,形式可能是邮件、短信或 ChatGPT 内通知。

这里有两个细节值得注意。第一,这是可选功能,不是默认强制开启;第二,提醒内容不会直接附带聊天记录或详细摘要,重点是提示“请你去关心这个人”,而不是把用户对话原文外泄。这说明 OpenAI 想在“及时干预”和“隐私边界”之间找一个还能落地的中间点。

为什么这件事现在特别值得关注?

TechCrunch 和 Mashable 都提到,OpenAI 近来持续承受外界对聊天机器人心理安全问题的法律与舆论压力,尤其是在自伤、自杀相关情境下,社会对平台责任的要求明显提高。换句话说,这不是一次普通的产品打磨,而是平台治理压力倒逼出来的能力升级。

我自己的判断是,AI 行业已经进入一个新阶段:大家不再只问“模型能不能做到”,而开始问“模型做到了以后,谁来兜底”。过去很多互联网产品的风险主要停留在信息层面,比如误导、沉迷、推荐偏差;而生成式 AI 因为具备持续对话和情绪陪伴属性,已经更接近一种“高参与度关系型产品”。一旦用户在脆弱状态下投入真实情绪,平台就不能再只靠一句“这不是专业建议”来完成责任切割。

这对 AI 产品竞争意味着什么?

从商业和品牌角度看,未来真正拉开差距的,不一定只是模型分数,而是“谁更像一个可被社会接受的大规模系统”。安全响应速度、人工复核机制、隐私处理方式、是否愿意把产品风险写进流程,都会慢慢变成竞争力的一部分。

  • 对普通用户来说,这类功能释放出的信号是:AI 平台开始承认自己会深度影响真实生活,而不是只提供文字生成服务。
  • 对创业者和开发者来说,这提醒大家,做 AI 应用不能只盯着转化率和留存,风控、升级路径和人工介入机制要尽早设计。
  • 对整个行业来说,这也是一个分水岭:未来“安全能力”很可能像支付、身份验证、云基础设施一样,成为 AI 平台的标准配置。

Xing 的看法

我认为,这次“可信联系人”最重要的地方,不在于它功能有多复杂,而在于 OpenAI 正在公开承认一个现实:当 AI 被越来越多人当成情绪对象时,平台必须准备处理现实世界的后果。它不一定能一次把问题解决好,但至少把方向从“免责声明式安全”推进到了“流程化干预式安全”。

接下来值得继续观察的,不是这个功能有没有传播热度,而是三件事:人工复核是否足够快、误报与漏报如何平衡、以及用户会不会愿意把这种安全机制真正打开。如果这些环节跑通,未来更多 AI 产品都会跟进;如果跑不通,这也会成为行业一次很有代表性的试错。

消息来源

Categorized in:

个人日志,

Last Update: 10 5 月, 2026