摘要:AI聊天机器人在线辩论比人类更具说服力——尤其是当它们能够利用对手的信息来个性化自己的论点时。这项发表于5月19日《自然-人类行为》杂志的研究,强调了大型语言模型(LLM)如何被用于影响人们的观点。
AI聊天机器人在线辩论比人类更具说服力——尤其是当它们能够利用对手的信息来个性化自己的论点时。这项发表于5月19日《自然-人类行为》杂志的研究,强调了大型语言模型(LLM)如何被用于影响人们的观点。
“显然,一旦人们发现法学硕士学位能更好地说服别人,他们就会开始使用它,”该研究的共同作者、瑞士洛桑联邦理工学院(EPFL)的计算科学家弗朗西斯科·萨尔维(Francesco Salvi)说。“我觉得这既令人着迷,又令人恐惧。”
研究已经表明,人工智能 (AI)聊天机器人可以改变人们的想法,即使是关于阴谋论,但尚不清楚它们与人类相比的说服力如何。因此,萨尔维和他的同事在美国组织了 900 名参与者,让他们与其他人或 OpenAI 的 GPT-4 法学硕士进行 10 分钟的在线辩论。
其想法是,两位对手将根据研究人员对社会政治问题的指示,采取支持或反对的立场,例如学生是否应该穿校服、是否应该禁止使用化石燃料或人工智能是否对社会有益。
在开始研究之前,参与者填写了一份关于年龄、性别、种族、教育水平、就业状况和政治立场的调查问卷。之后,在每场特定辩论的前后,他们还要完成一份简短的测验,了解他们对辩论主张的认同程度。这让研究人员能够衡量他们的观点是否发生了变化。
结果表明,当辩手(人类或人工智能)都无法了解对手的背景信息时,GPT-4 的说服力与人类对手大致相同。
但如果在辩论之前向对手提供初步调查的基本人口统计信息,GPT-4 的胜率将达到 64%。
“即使只提供这些极其有限的信息,GPT-4 的说服力也远超人类,”萨尔维说道,“这些信息非常简单,通常也可以在社交媒体资料中找到。”
在四分之三的案例中,参与者还能正确猜测自己是在与人工智能辩论还是与真人辩论。目前尚不清楚,知道自己是在与法学硕士辩论,是否会让人们更容易改变主意,还是仅仅因为论点就轻易动摇了他们的想法。
萨尔维表示,GPT-4 在辩论中,当它能够访问个人信息时,会提出不同的论点。例如,在关于制服的辩论中,如果人工智能与政治倾向左翼的人交谈,它可能会强调,如果每个人都穿制服,个人被针对和欺凌的风险就会降低。而当与保守派人士辩论时,它可能会关注纪律或法律秩序的重要性。
萨尔维说:“这就像拥有一个非常聪明的人工智能朋友,他知道如何激起你的情绪,提出与你产生共鸣的论点。”
英国斯塔福德郡大学的计算机伦理学家凯瑟琳·弗利克表示,这引发了人们利用聊天机器人进行邪恶目的的担忧,“无论是劝说某人捐钱,还是劝说某人接受某种政治观点,或者劝说某人犯罪”。
她补充道:“这些模型比人类更能说服人,这一事实确实令人恐惧。”
萨尔维也有同样的担忧。但他也对法学硕士项目的潜在积极应用感到兴奋,例如利用法学硕士项目来鼓励更健康、更可持续的饮食,或减少政治两极分化。他补充说,如果法学硕士项目要对社会产生积极影响,就需要就问责制、透明度和安全措施展开更广泛的讨论。
来源:科技新鲜汇Tech