研究发现当人工智能知道你是谁之后 就能轻易在辩论中击败你

摘要:

一项新的研究表明,GPT-4 在一对一对话中能够可靠地赢得与人类对手的辩论——而且当它了解你的年龄、工作和政治倾向时,这项技术会变得更有说服力。

瑞士洛桑联邦理工学院 (EPFL)、普林斯顿大学和意大利布鲁诺·凯斯勒基金会 (Fondazione Bruno Kessler) 的研究人员将 900 名研究参与者与一位人类辩论伙伴或 OpenAI 的 GPT-4 配对。GPT-4 是一个大型语言模型 (LLM),其设计主要针对人类提示生成文本回复。在某些情况下,参与者(包括机器和人类)可以访问对方的基本人口统计信息,包括性别、年龄、教育程度、就业情况、种族和政治立场。

该团队的研究成果发表在今天的《自然-人类行为》杂志上,研究发现,当获得个人信息时,人工智能的说服力比人类对手高出 64.4%;如果没有个人数据,人工智能的表现与人类辩论者没有区别。

研究团队写道:“近几十年来,社交媒体和其他在线平台的传播通过实现个性化或‘微目标’扩大了大众说服的潜力——针对个人或群体定制信息以增强其说服力。”

当 GPT-4 被允许个性化其论点时,它的说服力显著高于任何人类——与人与人之间的辩论相比,它改变某人想法的几率提高了 81.2%。重要的是,当人类辩论者获得这些个人信息后,其说服力并没有那么强。

研究人员补充道:“在说服的背景下,专家们普遍担心LLM可能会被用来操纵网络对话,并通过传播错误信息、加剧政治两极分化、强化回音室效应和说服个人接受新的信仰来污染信息生态系统。”

研究人员发现,GPT-4 可以与你争论,并且根据你的一系列事实,它可能擅长说服你改变观点。该团队在论文的讨论中指出,大语言模型(LLM)此前曾因制造和传播仇恨言论、虚假信息和宣传而受到批评;如果规模化,包含用户个人信息的大语言模型可能会被用于恶意目的。

该团队的研究与最近的 ChatGPT 更新完美结合,该更新允许模型记住更多用户的对话(在获得他们的许可的情况下),这意味着人工智能可以访问有关其用户的信息目录。

但也有好消息或者坏消息,这取决于你如何看待它。GPT-4 在说服反对者方面非常有效,尤其是在争议较小的问题上,但面对更根深蒂固的立场(研究中称之为“意见强度”),机器人更难说服人类改变主意。换句话说,没有迹象表明 GPT-4 会比你在感恩节辩论桌上的表现更成功。

此外,研究人员发现,GPT-4 更倾向于使用更具逻辑性和分析性的语言,而人类辩手则更依赖人称代词和情感诉求。令人惊讶的是,个性化并没有显著改变 GPT-4 的语气或风格——它只是让它的论点更具针对性。

在四分之三的案例中,人类参与者能够正确识别对手是人工智能,研究人员将此归因于 GPT-4 独特的写作风格。但参与者很难将人类对手识别为人类。无论如何,当人们认为自己在与人工智能争论时,他们改变主意的可能性比他们认为对手是人类时更大。

该研究团队表示,这项实验可以作为“概念验证”,用于验证Reddit、Facebook或X等平台上可能发生的情况。在这些平台上,辩论和争议性话题司空见惯,而机器人的存在也已非常普遍。最近的论文表明,人工智能并不需要像剑桥分析公司那样进行水平的分析就能改变人类的想法,机器只需六种类型的个人信息就能做到这一点。

随着人们越来越依赖大语言模型(LLM)来帮助完成死记硬背的作业、家庭作业、文档甚至心理治疗,人类用户对其所获得的信息保持谨慎至关重要。讽刺的是,社交媒体——曾被宣传为数字时代的连接组织——却加剧了孤独和孤立,正如三月份两项关于聊天机器人的研究发现的那样。

所以,即使你发现自己正在与大语言模型辩论,也要问问自己:与机器讨论如此复杂的人类问题究竟有什么意义?当我们将说服的艺术交给算法时,我们会失去什么?辩论不仅仅是为了赢得争论——这是人类的本能。我们寻求真正的对话,尤其是一对一的对话,是有原因的:为了建立人际关系并找到共同点,而这是拥有强大学习工具的机器无法做到的。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan