OpenAI推出“可信联系人”功能:AI或成预防自残的防线
近日,OpenAI正式上线了“可信联系人”(Trusted Contact)功能,允许用户指定一位或多位信任的个人,当AI模型检测到用户表达出自残或自杀意图时,系统将主动向这些联系人发送警示信息。这一举措标志着大语言模型从“被动回答”向“主动干预”的关键跨越,也引发了关于AI在心理健康危机中角色的广泛讨论。
功能机制与安全逻辑
“可信联系人”功能嵌入在ChatGPT的安全护栏中。当模型通过对话分析,判定用户存在明确的自伤或自杀风险(例如直接陈述“我想结束生命”或间接表达绝望、无价值感)时,系统不会仅提供常规的心理支持资源链接,而是会触发更高优先级的响应:向用户预先指定的联系人发送通知,告知其“您关心的人可能正经历心理健康危机,请尽快联系”。这一设计借鉴了现实世界中“安全计划”(Safety Plan)的核心要素——在个体陷入危机时,由信任的人提供即时支持。
伦理与隐私的双刃剑
从积极角度看,该功能弥补了AI在危机干预中的关键短板。传统上,AI只能提供静态信息(如自杀预防热线),但无法确保用户实际联系这些资源。而“可信联系人”将AI的识别能力与人类的社会支持网络结合,理论上能大幅缩短从“表达危机”到“获得实际帮助”的时间窗口。
然而,这一机制也面临严峻的伦理挑战。首先是**误报风险**:AI可能将文学性表达、比喻性语言或玩笑误判为真实意图,导致不必要的恐慌和隐私泄露。其次是**用户知情权与自主权**:用户是否充分理解“指定联系人”意味着AI可能在未经当前对话同意的情况下主动外泄信息?OpenAI在设置中强调了“仅用于极端情况”,但“极端”的界定标准仍不透明。此外,对于未成年人或处于控制关系中的用户,联系人本身可能成为伤害源,而非保护者。
行业启示与未来方向
OpenAI的这一步并非孤例。谷歌、Meta等公司也在探索AI在心理健康领域的主动干预机制,但“可信联系人”是首个直接调用用户社交网络的大规模商业化尝试。它提示我们:**AI安全不应只停留在内容过滤层面,而应延伸至行为后果的预防**。未来,模型可能需要更精细的上下文理解能力(区分真实危机与创作性表达),以及更灵活的干预路径(如先提供匿名热线,再视情况升级到联系人)。同时,监管机构需尽快制定AI在心理健康干预中的透明度标准、数据最小化原则和问责机制。
在AI快速渗透日常对话的今天,“可信联系人”功能或许只是开始。它既展现了技术向善的可能性,也敲响了隐私与伦理的警钟。真正的防线,永远需要技术、政策与人类同理心的协同构建。