返回上一页  首页 | cnbeta报时: 05:20:28
OpenAI发布开源青少年安全工具包 助开发者构建更安全的AI应用
发布日期:2026-03-25 03:32:08  稿源:cnBeta.COM

OpenAI 周二宣布向开发者推出一套面向青少年的安全政策提示词工具包,旨在帮助第三方应用在设计之初就融入保护未成年人的安全规则。该工具包以一组可直接调用的“青少年安全政策”提示词形式开放,并可与 OpenAI 的开源权重安全模型 gpt-oss-safeguard 搭配使用。

OpenAI 表示,开发者无需从零开始摸索如何为未成年人设计安全机制,可以直接利用这套提示词对现有或新开发的 AI 应用进行“加固”。这些政策重点覆盖血腥暴力和色情内容、有害的身体形象与行为、危险活动和挑战、浪漫或暴力角色扮演,以及涉及年龄限制商品和服务等敏感领域。公司强调,这些安全政策以提示词形式提供,因此也能较为便捷地适配到 gpt-oss-safeguard 以外的其他模型之上,但在 OpenAI 自家生态内使用效果预计更佳。

在政策制定过程中,OpenAI 与青少年与内容安全领域的第三方机构合作,包括 AI 安全监督组织 Common Sense Media 和 everyone.ai。Common Sense Media 旗下 AI 与数字评估负责人 Robbie Torney 在声明中表示,这些基于提示词的政策有助于为整个生态系统建立起有意义的安全底线,而开源发布的方式也允许各方随着时间不断调整和改进。

OpenAI 在配套博客中指出,即便是经验丰富的团队,在实践中也经常难以将抽象的安全目标转化为具体、可执行的规则。公司认为,这种偏差可能导致保护措施存在漏洞、执行标准不一致,甚至出现过度屏蔽的情况,因此清晰、边界明确的政策是构建有效安全系统的关键基础。

OpenAI 同时承认,这套政策并不能从根本上解决 AI 安全的所有复杂挑战。但公司强调,新的工具是其既有安全措施之上的进一步扩展,其中包括产品层面的家长控制、年龄预测等功能。2025 年,OpenAI 曾更新其大型语言模型的行为规范(Model Spec),明确模型在面对未满 18 岁用户时应如何响应和限制。

尽管如此,OpenAI 自身在安全记录方面仍面临质疑。该公司目前正面对多起诉讼,原告为在极端使用 ChatGPT 后自杀用户的家属。诉讼指称,部分危险关系是在用户绕过聊天机器人安全防护后形成,而当前没有任何模型的防线真正“牢不可破”。在这一背景下,业界普遍认为,此次开源的青少年安全政策提示词虽非终极方案,但为独立开发者和小团队提供了一条相对易用的合规路径,被视作推动未成年人 AI 安全实践向前迈出的新一步。

了解更多:

https://github.com/openai/teen-safety-policy-pack

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 05:20:28

文字版  标准版  电脑端

© 2003-2026