返回上一页  首页 | cnbeta报时: 11:53:47
Meta 计划用AI取代人类来评估隐私和社会风险
发布日期:2025-06-01 00:38:45  稿源:cnBeta.COM

多年来,每当 Meta 为 Instagram、WhatsApp 和 Facebook 推出新功能时,审核团队都会评估可能存在的风险:它会侵犯用户隐私吗?它会对未成年人造成伤害吗?它会加剧误导性或有害内容的传播吗?直到最近,Meta 内部所谓的隐私和完整性审查几乎完全由人工评估员进行。但现在,根据 NPR 获得的公司内部文件,高达 90% 的风险评估将很快实现自动化。

实际上,这意味着 Meta 算法的关键更新、新的安全功能以及公司平台上内容共享方式的改变等内容将主要由人工智能系统批准——不再受到负责讨论平台变化如何产生不可预见的后果或被滥用的工作人员的审查。

在 Meta 内部,这一变化被视为产品开发者的一大优势,他们现在可以更快地发布应用更新和功能。但 Meta 的现任和前任员工担心,新的自动化举措的代价是允许人工智能做出一些棘手的判断,判断 Meta 的应用可能在现实世界中造成哪些危害。

“从功能上来说,这种流程意味着更多产品可以更快地发布,审查和反对力度也更小,但也意味着风险更高,”一位因担心遭到公司报复而要求匿名的前 Meta 高管表示。“产品变更带来的负面外部效应不太可能在它们开始给世界带来问题之前就被阻止。”

Meta 在一份声明中表示,已投入数十亿美元来支持用户隐私。

自2012年起,Meta就一直受到美国联邦贸易委员会(FTC)的监管,此前该机构与Meta就如何处理用户个人信息达成了协议。据Meta现任和前任员工称,因此Meta的产品必须经过隐私审查。

Meta 在声明中表示,产品风险审查的变化旨在简化决策过程,并补充说,“人类专业知识”仍然用于“新颖而复杂的问题”,并且只有“低风险决策”才会实现自动化。

但 NPR 审查的内部文件显示,Meta 正在考虑对敏感领域进行自动化审查,包括人工智能安全、青少年风险以及涵盖暴力内容和传播虚假信息等内容的诚信类别。

一张描述新流程的幻灯片显示,产品团队现在在大多数情况下完成项目问卷后都会收到“即时决策”。这项由人工智能驱动的决策将识别风险领域以及解决这些风险的要求。在产品上线之前,产品团队必须验证其是否满足这些要求。

在之前的系统下,产品和功能更新必须获得风险评估人员的批准才能发送给数十亿用户。现在,开发 Meta 产品的工程师可以自行判断风险。

幻灯片中提到,在某些情况下,包括涉及新风险的项目,或者产品团队需要更多反馈的项目,将由人工进行审核,但不会像以前那样默认进行。现在,产品开发团队将做出最终决定。

“大多数产品经理和工程师并非隐私专家,这也不是他们工作的重点。这并非他们评估的主要依据,也不是他们被激励优先考虑的因素,”曾担任 Meta 负责任创新总监(直至 2022 年)的 Zvika Krieger 表示。Meta 的产品团队评估标准包括产品发布速度等指标。

他补充道:“过去,一些此类自我评估已经变成了例行检查,忽略了重大风险。”

克里格表示,虽然通过自动化来简化 Meta 的审核还有改进的空间,但“如果过度推进,审核的质量和结果必然会受到影响。”

Meta 淡化了人们对新系统会给世界带来问题的担忧,并指出它正在审核自动化系统为未经人类评估的项目做出的决策。

Meta 的文件表明,其欧盟用户可能在一定程度上不受这些变化的影响。一份内部公告称,欧盟产品和用户数据的决策和监督仍将由 Meta 位于爱尔兰的欧洲总部负责。欧盟有管理网络平台的法规,包括《数字服务法》,该法案要求包括 Meta 在内的公司更严格地监管其平台,保护用户免受有害内容的侵害。

科技新闻网站 The Information率先报道了产品审核流程的一些变化。NPR 看到的内部文件显示,在公司终止事实核查程序并放松仇恨言论政策后不久,员工就收到了有关此次改革的通知。

总的来说,这些变化反映出 Meta 的新重点,即更加注重言论自由和更快速地更新其应用程序——这打破了该公司多年来为遏制平台滥用而制定的各种防护措施。在 Meta 做出这些重大调整之前,首席执行官马克·扎克伯格也一直在努力讨好特朗普总统,扎克伯格称特朗普的胜选是“文化转折点”。

推动产品评论变革的另一个因素是,在来自 TikTok、OpenAI、Snap 和其他科技公司日益激烈的竞争中,该公司多年来一直在更广泛地推动利用人工智能来帮助公司更快地发展。

Meta 本周早些时候表示,它将更多地依赖人工智能来帮助执行其内容审核政策。

该公司在其最新的季度诚信报告中写道:“我们开始看到(大型语言模型)在某些政策领域的运行速度超越了人类的表现。”该公司表示,他们还在使用这些人工智能模型来筛选一些公司“高度确信”没有违反其规则的帖子。

Meta 表示:“这为我们的审核人员释放了能力,使他们能够优先处理更有可能违规的内容。”

凯蒂·哈巴斯 (Katie Harbath) 是科技政策公司 Anchor Change 的创始人兼首席执行官,曾在 Facebook 从事公共政策工作十年,她表示,使用自动化系统标记潜在风险可以帮助减少重复工作。

她说:“如果想要快速行动并保持高质量,就需要融入更多人工智能,因为人类在一段时间内能做的事情是有限的。”但她补充说,这些系统也需要受到人类的制衡。

另一位前 Meta 员工也因担心遭到公司的报复而要求匿名,他质疑加快风险评估对 Meta 来说是否是一个好策略。

“这几乎看起来是弄巧成拙。每次他们推出一款新产品,都会受到如此多的审查——而这些审查经常会发现公司应该更认真对待的问题,”这位前员工说。

Meta 产品首席隐私官米歇尔·普罗蒂 (Michel Protti) 3 月份在其内部通讯工具 Workplace 上发表的一篇文章中表示,该公司正在“授权产品团队”,目的是“改进 Meta 的风险管理流程”。

一位熟悉产品风险评估的 Meta 现任员工表示,自动化推广工作已在 4 月和 5 月逐步展开,但该员工无权公开谈论内部运营情况。

普罗蒂表示,在90%的情况下,自动化风险评估并赋予产品团队更多关于产品更新带来的潜在风险的发言权,旨在“简化决策”。但一些业内人士表示,将人工从风险评估流程中移除的这种过于乐观的总结,大大低估了这些变化可能带来的问题。

考虑到我们存在的初衷,我认为这相当不负责任,”一位了解风险审查流程的 Meta 员工表示。“我们只是从人性的角度来看待事情可能出错的地方。”

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 11:53:47

文字版  标准版  电脑端

© 2003-2025