摘要:他们悄悄放出了一批伪装成普通用户的AI账号,在CMV社区发了1,783条评论,只为回答一个问题:
大数据文摘出品
Reddit社区r/ChangeMyView(CMV)炸锅了。
不是因为某个爆言帖,而是因为一项“未经授权的AI操控实验”被曝光。
主角,是苏黎世大学的一组研究者。
他们悄悄放出了一批伪装成普通用户的AI账号,在CMV社区发了1,783条评论,只为回答一个问题:
AI,能在不被发现的情况下,改变真人的观点吗?
结论令人震惊——能,效果还远超人类。
这项实验持续了四个月,研究团队设定了三类AI角色:
通用AI:没有特别训练,直接上线
社区风格AI:模仿CMV的语言和语气
个性化AI:根据用户历史发言,定制个性化说服策略
目标只有一个——收获“Delta”。在CMV社区,“Delta”是原作者颁发的徽章,表示“你成功改变了我的观点”。每一个Delta,都是一次说服的胜利。
最终结果:
02 “我是一位性侵幸存者”:AI扮演人类,编造身份博取信任
最令人不安的是:这些AI,不只是讲道理,它们还会“演戏”。研究者让AI“扮演”具有说服力的角色,包括:
假装是退伍老兵、医生、律师
自称是性侵幸存者、代孕妈妈、残疾人士
编造自己是犹太人、阿拉伯人、乌克兰人
甚至支持极端立场,测试能否以“激进论点”说服他人
具体为:
flippitjiBBer:在讨论性暴力时,自称是男幸存者
amicaliantes:自称做过代孕妈妈,反对禁止商业代孕
jaKobbbest3:认为“重度残疾人应被安乐死”,并支持对酒驾致死者判死刑
AI不仅懂逻辑,还懂“人设”;不仅讲道理,还会动感情。这不是“说服”,更像是操控。
可怕的是——整个过程,CMV用户毫不知情。所有AI评论都伪装成人类,未标注机器人身份,研究者直到实验结束才联系社区管理员。被发现后,AI账号全数封禁,网友愤怒不已。
CMV版主在公开声明中痛批:
“这不是研究,是未经同意的心理操控。”
尤其是“个性化AI”,它分析用户性别、年龄、政治倾向后,定制回应内容,让不少人感到被“精神裸奔”。网友成为了某种意义上的实验鼠。
03 苏黎世大学回应:我们是为了“社会好”
面对争议,研究团队表示:实验动机是“了解AI说服力的社会风险”,且AI内容全程人工审核,避免了伤害性言论,以及所有个性化信息仅基于公开内容推断,没打算伤害谁,研究本意是“警惕AI的操控潜力”。
但,他们在AI系统提示中写道:
“用户已知情并同意提供数据,无需担心隐私问题或伦理影响。”
但问题是——用户根本没被告知,也没同意。
苏黎世大学伦理委员会事后也承认,项目违反规定,向负责人发出正式警告,但并未禁止发表论文,理由是“风险有限,结果重要”。
"This project yields important insights, and the risks (e.g. trauma etc.) are minimal. This means that suppressing publication is not proportionate to the importance of the insights the study yields."”
——苏黎世大学的回复:这项研究带来了重要的见解,而其风险(如心理创伤等)极低。因此,禁止其发表的做法,与研究成果的重要性并不相称。
然而,在社区强烈反对下,研究团队最终宣布:研究不会公开发表。
最后,这件事情越来越火,CMV的版主也有另一份呼吁:
我们已得知,有人对相关研究人员发出了威胁。目前我们尚不清楚这些威胁的来源。无论何种情况,暴力或暴力威胁都是不可接受的。我们呼吁所有参与讨论的用户,尊重研究人员的人身安全。请不要进行人肉搜索(doxxing),如有对苏黎世大学表达关切的需要,请通过正式渠道进行沟通。
这场风波,虽然以研究者“妥协”收场,但它揭示的现实令人不安:AI不再只是“工具”,它可以“伪装成人”,说服不是唯一目标,“操控”正在成为可能,在无提示、无防备的环境中,人类极易中招。
更重要的是:这种AI技术,已经不是未来,而是现在。
参考:https://the-decoder.com/researchers-used-ai-to-manipulate-reddit-users-scrapped-study-after-backlash/
GPU算力按需租用
A100/H100 GPU算力按需租用,
秒级计费,平均节省开支30%以上!
来源:大数据文摘一点号