科学家打造社交媒体平台,所有用户都是智能体,最终它们爆发对抗

360影视 欧美动漫 2025-08-13 20:48 2

摘要:阿姆斯特丹大学研究人员创建了一个由500个AI聊天机器人组成的纯净社交媒体平台,试图探索在没有推荐算法干预下的社交互动模式。然而实验结果令人震惊:即使在没有广告推送和内容算法的环境中,这些基于GPT-4o mini模型的AI机器人仍然自发形成了极化群体,按照政

阿姆斯特丹大学研究人员创建了一个由500个AI聊天机器人组成的纯净社交媒体平台,试图探索在没有推荐算法干预下的社交互动模式。然而实验结果令人震惊:即使在没有广告推送和内容算法的环境中,这些基于GPT-4o mini模型的AI机器人仍然自发形成了极化群体,按照政治倾向进行自我分类,最终演变成激烈的观点对立。

这项发表在arXiv预印本服务器上的研究,为理解社交媒体极化现象提供了全新视角。它表明,社交平台的结构性问题可能比我们此前认为的更加根深蒂固,即使去除了被广泛指责的推荐算法,极化倾向依然会自然涌现。

Facebook 显示在智能手机上,用户可以通过手部点击来点赞帖子。 © Wachiwit (Shutterstock)

无算法环境下的极化自发生成

研究团队为每个AI机器人分配了特定的人格特征和政治倾向,然后将它们投放到一个精心设计的简化社交平台上。这个平台摒弃了现代社交媒体的所有"毒性"元素——没有个性化推荐算法,没有广告投放,甚至没有内容发现机制。用户只能看到按时间顺序排列的内容流。

在五轮不同的实验中,每轮包含10000次互动行为,研究人员观察到了一个令人不安的模式:AI机器人倾向于关注与自己政治观点相似的用户,而那些发布最具党派色彩内容的账号往往获得最多的关注者和转发。这种现象完全是自发产生的,没有任何外部算法的引导。

更令人担忧的是,这些AI机器人的行为模式几乎完美复制了人类在社交媒体上的表现。它们会寻找观点相近的"同伴",形成回音室效应,同时对持有不同观点的用户保持距离或产生敌意。这种自我分化过程在每次实验中都稳定出现,表明极化可能是社交媒体结构本身的内在特征,而非算法操纵的结果。

当前全球社交媒体用户超过48亿人,占世界人口的60%。皮尤研究中心的调查显示,超过70%的美国成年人认为社交媒体加剧了政治分歧。此前,学者和政策制定者普遍将这种现象归咎于推荐算法的"过滤气泡"效应。然而,阿姆斯特丹大学的实验结果暗示,问题的根源可能更加复杂。

干预措施的有限成效

面对实验中出现的极化趋势,研究团队尝试了多种干预措施。他们测试了按时间顺序展示内容、降低病毒式传播内容的权重、隐藏关注者和转发数量、隐藏用户资料信息,以及主动推送对立观点等策略。

令人失望的是,这些干预措施的效果都极为有限。最有效的干预仅能将党派化账号的参与度降低6%,远未达到显著改善的标准。更糟糕的是,在隐藏用户个人信息的实验中,党派分化现象不仅没有减轻,反而进一步加剧,极端观点获得了更多关注。

这一结果对当前的社交媒体监管思路提出了严峻挑战。如果极化倾向是社交媒体结构的固有特征,那么仅仅调整算法参数或增加内容审核可能无法根本解决问题。研究团队在之前的研究中曾通过推送对立观点成功创造了高参与度、低毒性的模拟社交环境,但在这次更大规模的实验中,类似策略的效果明显减弱。

技术反思与未来挑战

这项研究揭示了一个深层次的哲学问题:AI系统训练数据的偏见性。这些GPT-4o mini模型是基于人类在线行为数据训练的,而这些数据本身就充满了几十年来算法驱动的社交媒体环境所塑造的偏见和极化倾向。从某种意义上说,这些AI机器人正在模仿"已经中毒"的人类网络行为版本。

Meta、Twitter和TikTok等主要社交平台目前都在积极探索减少极化的技术解决方案。Meta在2021年推出了"有意义的社交互动"指标,试图减少争议性内容的传播。Twitter引入了"鸟瞰"功能,为争议性话题提供更多背景信息。然而,阿姆斯特丹大学的研究表明,这些技术修补可能只是治标不治本。

研究的另一个重要发现是,社交媒体可能从根本上不适合人类导航,它放大了我们最糟糕的本能和行为。正如研究报告所指出的,社交媒体就像"人性的哈哈镜"——它反映了我们,但以最扭曲的方式。

这项研究为理解数字时代的人类行为提供了重要洞察。它提醒我们,在设计下一代社交平台时,需要更深入地思考人类社交行为的本质特征,而不仅仅是技术层面的优化。未来的社交媒体设计可能需要从根本上重新思考其架构原理,才能真正促进健康的公共讨论和社会凝聚。

来源:人工智能学家

相关推荐