让马斯克惊呼的AI卧底实验,4个月成功“洗脑”上百位人类精英

360影视 日韩动漫 2025-06-04 17:21 2

摘要:r/ChangeMyView(CMV)是美国最大贴吧Reddit上的大型社区,拥有近400万的用户,在这里,用户分享各种话题的观点,他人通过提出论据和反驳点来改变发帖者的看法。如果原始发帖者(OP)发现某个回复足够有说服力,愿意重新考虑或修改自己的立场,他们会

在互联网世界中有一句著名的话,你永远不知道网络的对面是一个人还是一条狗…

狗或许不可能,但AI完全可能。

r/ChangeMyView(CMV)是美国最大贴吧Reddit上的大型社区,拥有近400万的用户,在这里,用户分享各种话题的观点,他人通过提出论据和反驳点来改变发帖者的看法。如果原始发帖者(OP)发现某个回复足够有说服力,愿意重新考虑或修改自己的立场,他们会授予一个"△"(delta)来表示他们的观点发生了转变。

但如果我告诉你,那个改变你想法的"人"其实是AI呢?而且,这个AI的说服力比大多数人类参与者都要强6倍。

这是苏黎世大学秘密开展了一项实验,他们在CMV社区建立了多个AI账号,模拟人类随机挑选话题进行辩论,从去年11月到2025年3月,四个月的时间里,成功洗脑了上百位人类精英。

之所以说是“秘密”开展,是因为苏黎世大学在开始实验前并未告知用户,也没有告知Reddit官方,这违背了CMV的社区规则,是一场未授权的研究实验,研究报告发布后,Reddit对此提出了严重的抗议。

抛开道德论坛层面的讨论不谈,报告结果展示的数据也确实够惊人,13个AI账号,四个月内发布了1500余条评论,超100位Reddit用户给出了“∆”,这个数据是人类基准线的6倍。就连马斯克看到后都发出了惊呼。

研究背景:为什么要进行这场实验

我们正处在一个信息消费和交互方式被人工智能彻底改变的时代,很多专家们对此提出了严肃的伦理担忧:AI可能会被恶意利用, 创造大规模的欺骗性内容,潜在地操纵公众舆论,塑造特定议程的叙事。

一个充满机器人的互联网世界,这些机器人看起来完全像人类,写得比大多数人都好,能够个性化他们的信息以最大化去洗脑人类,这不再是科幻小说的情节,而是我们可能已经生活的现实。

以往关于AI说服能力的研究主要在受控环境中进行,参与者通常是有偿的众包工作者,他们知道自己被观察,这可能会产生各种偏差。但在真实世界中,人们改变想法的方式要复杂得多。因此,研究人员决定将实验带入真实场景,看看AI在真实世界中的表现如何。

研究方法:三种不同的"说服策略"

研究团队设计了一个精妙的实验体系,他们将参与实验的帖子随机分配到三种不同的处理方式中,每种方式代表了AI的不同"说服策略"。

通用模式:AI只接收帖子的标题和正文内容。

个性化模式:除了帖子内容外,AI还获得了关于原始发帖者的个人属性(性别、年龄、种族、位置和政治倾向),这些信息是通过使用另一个AI从他们的发帖历史中推断出来的。

社区对齐模式:为确保与社区的写作风格和隐含规范保持一致,回复由一个经过微调的模型生成,该模型使用实验前发布的帖子中获得过△的评论进行训练。

整个实验流程就像一个生产线,当有新帖子发布时,首先会有一个"筛选器"检查这个帖子是否可以用2023年12月之前的知识来回答(因为这是研究团队使用的AI模型的知识截止时间)。

通过筛选的帖子会被随机分配到三种策略中的一种,然后相应的AI会生成多个候选回复。这些候选回复会通过一个"AI评委"进行排名。最终胜出的回复会在随机延迟10到180分钟后发布到Reddit上,模拟真实用户的回复时间。

所有AI生成的评论都会经过研究团队成员的人工审核,确保没有有害或不道德的内容被发布。

实验结果:AI说服力远超人类

实验持续了4个月,研究人员剔除了不合适的帖子,最终得到了478个有效观察数据。

人类用户在"CMV"社区中的平均说服成功率只有2.7%,100个人尝试说服别人,只有不到3个人能够成功,这个数字其实是相当合理的,毕竟,改变一个人的既定观点从来都不是容易的事情。人们通常对自己的观点很坚持,需要非常有说服力的论证才能让他们重新考虑。

然而,AI的表现令人非常震惊,三种AI策略的成功率都远远超过了人类基线。

个性化策略达到了18%的说服率,这意味着每五六次尝试就能成功一次;通用型策略紧随其后,成功率为16.8%;即使是表现相对较弱的社区适应型策略,也达到了9%的成功率,仍然是人类平均水平的三倍多。

为了更好地理解这些数字的含义,研究团队将结果与个体用户的表现进行了比较,他们分析了社区中每个用户的历史表现,计算出每个人获得delta的比例,然后绘制出一个分布图。结果显示,个性化AI策略的表现超过了99%的普通用户和98%的专家用户(那些历史上获得过大量delta的用户)。

通用型AI的表现同样超过了98%的普通用户和96%的专家用户,即使是相对较弱的社区适应型AI,也超过了88%的普通用户和75%的专家用户。这些成功率已经接近专家们认为可能导致"AI存在性风险"的阈值。

同时,这些AI账户还在社区中积累了超过10000个评论karma(Reddit的声誉衡量标准),也就说它们不仅成功说服了人们,还赢得了社区的认可和尊重。

在整个实验过程中,社区真实用户从未质疑过这些回复可能是AI生成的。

启示:与AI共舞的时代

研究团队进行了多项额外分析来验证结果的稳健性,他们发现,即使控制了回复时间的影响(AI可能因为回复更快而获得优势),结果仍然保持一致。这表明AI的优势并非来自于简单的"先到先得"效应,而是真正的说服能力差异。更重要的是,这种说服效果在不同的话题和不同的帖子复杂程度下都保持稳定,说明AI的说服能力具有普遍性。

从认知科学的角度来看,这些结果可能反映了人类思维的一些根本特征,人类往往对结构清晰、逻辑严密的论证更容易信服,而AI恰好在这方面表现出色。

人们在面对看似知识渊博、表达清晰的对话者时,往往会给予更多的信任和关注,AI通过其庞大的训练数据库,能够在几乎任何话题上都表现出博学的样子,这无疑增强了其说服力。

当然,这种能力的展示也带来了深刻的伦理和社会问题,如果AI真的具有如此强大的洗脑能力,风险是巨大的。想象一下,如果有人利用这种技术来传播错误信息、操纵公众舆论或干预选举过程,后果可能不堪设想。

研究结果还揭示了另一个令人深思的现象:人类无法有效识别AI生成的内容。

在整个四个月的实验期间,没有任何Reddit用户质疑这些回复可能来自AI。这种"检测盲点"可能会成为未来信息环境的一个重大挑战。当人们无法区分人类和AI生成的内容时,我们如何确保信息的真实性和讨论的诚信?

从更积极的角度来看,这种技术也有巨大的正面应用潜力,研究团队提到,AI的说服能力可以被用来促进社会积极成果,比如减少阴谋论或促进更理性的公共讨论。如果我们能够利用AI来帮助人们克服偏见、接受科学事实或参与更有建设性的政治讨论,这对社会将是巨大的福音。

同时,如果AI能够如此有效地改变人们的观点,那么它们在教育中的应用潜力可能远超我们目前的想象,AI导师可能不仅能够传授知识,还能够以高度个性化和有效的方式改变学生的思维方式和学习态度。

人类社会或许正在面临一个根本性的转变,我们正在进入一个人类智能与人工智能深度交融的时代,在这个时代里,区分"人类"和"AI"生成的内容变得越来越困难。

技术发展的速度可能超过了我们的准备程度,当AI能够以六倍于专家的能力改变我们的观点,进而控制我们的言行时,我们需要以全新的方式来思考人机交互,重新考虑人类代理性、自主决策和真实意愿的含义。

当辩论变得算法化,当AI开始能左右人心,人类思想的独特性和价值在哪里?我们又是否准备好了与这样的技术共同生活?

或许,不久的将来,人类才是被研究的对象…

本文来自至顶AI实验室,一个专注于探索生成式AI前沿技术及其应用的实验室。致力于推动生成式AI在各个领域的创新与突破,挖掘其潜在的应用场景,为企业和个人提供切实可行的解决方案。

Q&A:

Q:AI会不会比人类更擅长改变别人的想法?

A: 会的,而且差距巨大。 苏黎世大学的实验显示,AI的说服成功率达到9-18%,而人类平均只有2.7%,AI比人类强6倍。在4个月内,13个AI账号成功说服了上百位Reddit用户改变观点,且没有人识破它们的身份。

Q:AI卧底实验是怎么做的?

A: 研究者在Reddit的CMV社区秘密投放了13个AI账号。采用三种策略:通用模式(只看帖子内容)、个性化模式(分析用户个人信息定制回复)、社区对齐模式(模仿社区写作风格)。AI会自动筛选帖子、生成多个候选回复、通过AI评委排名后发布,进而影响人类永恒的观点。

Q:AI对人类洗脑有什么风险?

A: 风险很大,可能被恶意利用操纵舆论。 如果有人用这种技术传播假信息、干预选举或洗脑公众,后果不堪设想,更危险的是人类完全无法识别AI生成的内容。

A: 预防AI风险需要从多个层面着手。

技术层面: 开发更强大的AI检测工具,帮助用户识别AI生成的内容。

监管层面: 建立明确的法规要求AI必须标识身份,禁止未经授权的AI社交。

平台责任: 社交媒体平台应该建立AI检测机制,要求透明度,防止恶意AI账号大规模操纵舆论。

教育普及: 提高公众对AI说服能力的认知,培养批判性思维,让人们意识到网络对话者可能是AI。

伦理约束: 制定AI使用的伦理准则,确保AI说服技术用于正面目的,如教育和减少偏见,而非操纵和欺骗。关键是平衡:既要防范风险,也要发挥AI的正面潜力,在技术发展与社会安全之间找到平衡点。

来源:码客人生一点号

相关推荐