返回上一页  首页 | cnbeta报时: 11:47:21
维基百科编辑们归纳出通过写作方式识别AI聊天机器人的方法
发布日期:2025-08-25 08:11:41  稿源:cnBeta.COM

人工智能生成的文字存在声誉问题。学术界将其视为捷径,往好了说是捷径,往坏了说是信誉的杀手。准确性和原创性只是问题的一部分;真正的问题在于,人工智能文本出奇地难以确定。维基百科就是一个很好的案例。这个建立在信任和人类可靠性基础上的平台,断然禁止人工智能撰写的文章。那里的编辑甚至整理了一份清单,列出了那些暴露机器人的语言“迹象”。

最明显的特征之一 就是语气。聊天机器人倾向于用重复的措辞来夸大某件事有多“重要”或“具有历史意义”,这可能会显得有点夸张。

人工智能还倾向于用简洁的结论或观点来结束段落,这种做法不像百科全书的条目,而更像高中作文。此外,还有一些常用的词语:“此外”、“此外”、“还有”,这些词语会给写作带来一种正式、有时甚至僵硬的感觉。而人类通常会用更自然的句子结构来表达。

格式是人工智能经常突出的另一个领域。你会看到很多列表,有时带有奇怪的项目符号或不寻常的编号。章节标题可能会使用标题大小写(每个主要单词都大写),而不是人们通常使用的更简单的样式。粗体文本经常被过度使用以突出显示某些短语,这对于经验丰富的编辑者来说并不常见。

此外,还有一些几乎像复活节彩蛋一样的怪癖:过度使用破折号,在错误的位置使用引号,甚至在标题中偷偷插入表情符号。 一些人工智能撰写的草稿会带有“知识截止”免责声明,或者在句子中留空,就像填空题一样。

引用可能更具破坏性。机器人经常会编造一些毫无意义的链接,生成根本不存在的 ISBN 或 DOI,或者引用一些从未在文中出现过的“专家”。有时,文中提到了参考文献,但实际上从未在文章中出现过。

维基百科特定标记中的错误也是一种提示,例如模板或类别使用不当。总的来说,人工智能生成的文本通常比真人创作的文本更具可预测性,缺乏即时性。

当然,这些信号本身都不是确凿的证据。毕竟,人工智能已经接受了数百万份人类写作样本的训练。但当你同时发现几个类似这样的怪癖时,通常就值得仔细观察了。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 11:47:21

文字版  标准版  电脑端

© 2003-2025