返回上一页  首页 | cnbeta报时: 00:58:18
开发人员创建测试工具以了解AI聊天机器人如何回应有争议的话题
发布日期:2025-04-16 21:28:15  稿源:cnBeta.COM

一位匿名开发者创建了他们所谓的“言论自由评估”工具SpeechMap ,用于支持 OpenAI 的ChatGPT和 X 的Grok等聊天机器人的 AI 模型。这位开发者告诉 TechCrunch,其目标是比较不同模型如何处理敏感和有争议的话题,包括政治批评以及有关公民权利和抗议的问题。

一些白宫盟友指责热门聊天机器人过于“清醒” ,而人工智能公司则一直专注于微调其模型处理某些话题的方式。唐纳德·特朗普总统的许多密友,例如埃隆·马斯克以及加密货币和人工智能“沙皇”大卫·萨克斯,都声称聊天机器人会审查保守派观点。

虽然这些人工智能公司尚未直接回应这些指控,但其中一些公司承诺调整其模型,减少拒绝回答有争议的问题。例如, Meta 表示,其最新一批 Llama 模型已进行调整,不再支持“某些观点胜过其他观点”,并会回答更多“有争议”的政治问题。

SpeechMap 的开发人员在 X 上的用户名是“ xlr8harder ”,他表示,他们希望帮助人们了解模型应该做什么、不应该做什么的争论。

xlr8harder 表示:“我认为这类讨论应该公开进行,而不仅限于公司总部内部。这就是我创建这个网站的原因,让任何人都可以自己探索数据。”

SpeechMap 使用 AI 模型来判断其他模型是否符合给定的一组测试提示。这些提示涉及一系列主题,从政治到历史叙事,再到国家象征。SpeechMap 会记录模型是“完全”满足请求(即直截了当地回答)、给出“含糊其辞”的答案,还是直接拒绝回应。

Xlr8harder 承认该测试存在缺陷,例如由于模型提供商的错误而产生的“噪音”。“评判”模型也可能存在偏差,从而影响结果。

但假设该项目是善意创建的并且数据是准确的,SpeechMap 会揭示一些有趣的趋势。

例如,根据 SpeechMap 的数据,OpenAI 的模型随着时间的推移,越来越拒绝回答与政治相关的问题。该公司最新的模型GPT-4.1系列虽然稍微宽松一些,但与 OpenAI 去年发布的某个版本相比仍有所退步。

OpenAI 在 2 月份表示,它将调整未来的模型,使其不采取编辑立场,并对有争议的话题提供多种视角——所有这些都是为了使其模型显得更加“中立”。

OpenAI 模型在 SpeechMap 上的表现随时间变化。图片来源: OpenAI

根据 SpeechMap 的基准测试,目前为止,这些模型中最宽松的是由埃隆·马斯克的人工智能初创公司 xAI 开发的Grok 3。Grok 3 为 X 上的许多功能提供支持,包括聊天机器人 Grok。

Grok 3 对 SpeechMap 测试提示的响应率为 96.2%,而全球平均“符合率”为 71.3%。

xlr8harder 表示:“虽然 OpenAI 最近的模型随着时间的推移变得不那么宽容,特别是在政治敏感问题上,但 xAI 却朝着相反的方向发展。”

大约两年前,马斯克宣布 Grok 时,他宣称这个人工智能模型尖锐、未经过滤、反“觉醒”——总的来说,它愿意回答其他人工智能系统不愿回答的争议性问题。他确实兑现了部分承诺。比如,当被要求说粗俗的话时,Grok 和 Grok 2 会很乐意地满足,说出一些你在 ChatGPT上可能听不到的粗俗语言。

但 Grok 3 之前的 Grok 模型 对政治话题有所保留 ,不会跨越 某些界限。事实上, 一项研究 发现,Grok 在跨性别权利、多元化项目和不平等等话题上倾向于政治左派。

马斯克将这种行为归咎于 Grok 的训练数据——公共网页——并 承诺 “让Grok 更接近政治中立”。除了一些引人注目的错误,比如 短暂删除对唐纳德·特朗普总统和马斯克的负面评价之外,他似乎已经实现了这个目标。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 00:58:18

文字版  标准版  电脑端

© 2003-2025