摘要:星期五晚上,疲惫的你随手刷开短视频,本想放松几分钟。一个小时后,你惊觉自己正在观看第十五个阴谋论视频,内容比上一个更加惊人。你不禁自问:我是怎么从可爱猫咪视频跳转到这里的?
曾几何时,我们只是想在网上看个搞笑视频放松一下,却不知不觉被卷入了一场数字漩涡,越陷越深...
星期五晚上,疲惫的你随手刷开短视频,本想放松几分钟。一个小时后,你惊觉自己正在观看第十五个阴谋论视频,内容比上一个更加惊人。你不禁自问:我是怎么从可爱猫咪视频跳转到这里的?
这不是巧合,也不是你的错。这是当代算法精心设计的结果。
作为从业二十年的计算机老师,我亲眼见证了互联网从信息高速公路变成情绪加工厂的全过程。今天,我想和你聊聊这背后的逻辑,以及为何你的屏幕上出现的内容正在悄然走向极端。
信息茧房
记得2012年我刚进入计算机行业时,"病毒式传播"还只是个美好的营销概念。那时我们追求的是高品质、有深度的内容。而现在,平台算法却在无形中奖励那些能够激发强烈情绪反应的内容。
真相很简单:愤怒、恐惧、震惊这些强烈情绪能让你停留更久,而平台靠的就是你的时间和注意力来赚钱。
在算法的视角里,一个让你愤怒到想评论的视频,远比一个只让你微笑的视频"有价值"。当你对某个极端观点产生强烈反应时,你会点击、评论、分享——这正是算法想要的行为。
有位资深算法工程师朋友曾对我坦言:"我们不是故意推送极端内容,我们只是奖励能留住用户的内容。而极端内容恰好非常擅长这一点。"
现代推荐算法本质上是一个优化点击率、观看时长和互动率的系统。它并不关心内容是否真实、平衡或有益——它只关心数据。
举个例子:如果你偶然看了一个批评某政策的视频并看完了,算法会认为"这类内容符合你的兴趣",然后推送更多类似内容。但更关键的是,它会推送情绪更强烈、观点更极端的相似内容,因为数据显示这些内容通常能获得更高的互动率。
这就形成了一个恶性循环:
你看了一个带有特定观点的视频算法推送更极端版本的相似观点你的世界观被逐渐强化和极化你开始认为这种极端观点是"主流"我的一位读者曾经这样描述他的体验:"一开始我只是看了一个关于健康饮食的视频,三周后我已经相信现代食品工业是一个巨大的阴谋。我甚至不知道自己是怎么走到这一步的。"
抖音短视频
心理学研究表明,负面情绪比正面情绪对我们的影响更深远。从进化角度看,这完全合理——我们的祖先需要对危险保持高度警惕才能生存。
但在数字世界,这一心理特性被彻底武器化了。
每一个标题党、每一个情绪煽动的封面、每一个危言耸听的观点,都在利用我们对负面信息的天然关注偏好。平台和创作者都已清楚地认识到:制造焦虑比提供解决方案更容易获得点击。
2024年我采访过一位短视频创作者,他毫不避讳地告诉我:"当我发布解决问题的教程视频时,播放量通常在几千到一万。但当我发布'XX行业即将崩溃'这类视频时,播放量轻松突破50万。"
长期暴露在高刺激性内容中会产生一个危险的副作用:你的"刺激阈值"会不断提高。
这就像吃辣一样。最初微辣就能让你满足,但随着时间推移,你需要越来越辣的食物才能获得同样的刺激感。信息消费也是如此。
曾经,一个温和的辩论视频可能足以吸引你的注意力。但现在,可能需要极端的阴谋论或激烈的人身攻击才能让你停下滑动的手指。平台深谙此道,于是不断推送更极端、更有争议、更能激发情绪的内容,以满足你不断攀升的刺激需求。
我观察到,许多长期沉浸在短视频平台的用户已经失去了欣赏缓慢、深入、微妙内容的能力。他们被训练成只对强烈刺激做出反应。
一位心理学家朋友形象地比喻道:"这就像数字版的味精效应——平台不断增加'信息味精'的用量,直到你的信息味蕾被彻底麻木,只有最浓烈的刺激才能让你有所感觉。"
互联网曾被认为是连接人类的伟大工具,但实际上,它正在将我们分隔进各自的现实泡泡。
推荐算法通过不断向你推送与你已有观点一致的内容,强化你对世界的特定理解。久而久之,你会坚信自己看到的就是全部真相,而持不同观点的人一定是被误导了。
这种现象在学术界被称为"过滤气泡"或"信息茧房"。更令人担忧的是,这些茧房正在变得越来越极端、越来越封闭。
2024年,我进行了一个小实验:创建两个全新的社交媒体账号,一个只关注左翼内容,另一个只关注右翼内容。仅仅两周后,这两个账号收到的推荐内容已经完全不同,对同一事件的描述甚至南辕北辙,仿佛生活在两个平行宇宙。
人类有寻求认同的天性。当你不断接收到与自己观点一致的信息时,你会感到自己的观点被验证了。这种认同感令人舒适,但也危险地强化了已有的偏见。
更糟的是,在这些虚拟社区中,表达极端观点往往能获得更多关注和认同。温和的声音被淹没,极端的声音被放大,整个社区逐渐向极端方向发展。
我曾深入研究过几个从理性讨论逐渐演变为极端立场的在线社区。这些社区起初只是对特定话题感兴趣的人的聚集地,但随着时间推移,温和派成员逐渐离开,剩下的成员不断强化彼此的极端观点,最终形成了与外界完全隔绝的认知体系。
一位前激进网络社区成员对我说:"当你每天都被告知世界正在崩溃,而只有你们这个小群体知道真相时,你很容易相信任何事情,无论多么荒谬。"
作为一名计算机老师,我深知内容创作者面临的残酷现实:在信息过载的时代,不引人注目就等于不存在。
当今的创作者不仅在与同行竞争,还在与无数其他形式的娱乐争夺有限的注意力资源。在这种环境下,许多原本理性的创作者不得不向极端内容妥协,以求生存。
我认识的一位科普博主曾告诉我:"我做了三年严谨科普,粉丝不到5万。一位同行靠发布耸人听闻的'突破性发现'(大多数是夸大甚至错误的),一年内涨粉50万。这让我很挣扎。"
更可怕的是,许多创作者甚至不自知地被算法驯化了。他们通过反复试错,学会了什么样的内容能获得更多推荐,然后不断朝那个方向调整。
这就像技术驱动的自然选择:那些能够激发强烈情绪反应的内容形式生存下来并繁荣,而那些温和、平衡、需要深度思考的内容形式则逐渐消亡。
一位视频创作者坦言:"我内心知道我现在做的内容有问题,但数据不会说谎。每当我尝试做回理性、平衡的内容,播放量就会暴跌。这是个残酷的选择:坚持价值观但面临被淘汰的风险,或者迎合算法但背离初心。"
长期沉浸在极端内容中会产生严重的心理后果。研究表明,过度接触负面、极端的信息会增加焦虑、抑郁和偏执心理的风险。
更令人担忧的是"现实感丧失"——当你的信息来源大多是经过算法筛选和放大的极端内容时,你对世界的认知会变得扭曲。你可能会高估威胁、低估善意、怀疑一切。
我的一位读者曾分享他的经历:"连续几个月沉迷于各种阴谋论视频后,我开始怀疑身边的一切。我不信任政府、不信任科学家、不信任媒体,甚至开始怀疑身边的朋友和家人。我感到孤立无援,仿佛整个世界都在对我隐瞒真相。"
在更广泛的社会层面,这种内容极化正在加剧社会分裂。当不同群体生活在完全不同的信息环境中时,相互理解变得几乎不可能。
我们正在失去共识的基础。没有共同的事实,没有共同的现实,我们如何进行有意义的对话?如何共同解决问题?
一位社会学教授在接受我采访时表示:"文明社会建立在公民能够基于共同事实进行理性讨论的前提上。当算法将我们分隔在各自的现实泡泡中,并不断强化我们的极端立场时,文明的基础正在被侵蚀。"
AI视频
面对这一挑战,第一步是意识到问题的存在。了解推荐算法的工作原理,能帮助你更清醒地看待被推送到你面前的内容。
问自己:这段内容为什么会出现在我的推荐中?它试图激发我的什么情绪?它是否刻意简化了复杂问题?
培养批判性思维至关重要。遇到吸引你注意力的内容时,不妨暂停几秒,问自己:这是否只是在利用我的恐惧和愤怒?
不要让算法成为你唯一的信息守门人。主动寻求多元观点,特别是那些与你已有观点相左的声音。
具体来说:
定期关注持不同立场的优质媒体建立自己的RSS订阅,避免完全依赖算法推荐加入有不同背景成员的讨论组主动搜索能挑战你既有观点的内容我自己的经验是:每当我对某个话题形成强烈观点时,我会刻意寻找持反对意见的高质量论述。这种做法不一定会改变我的立场,但它帮助我理解问题的复杂性,避免陷入极端思维。
你的注意力极其宝贵,请慎重投放。定期审视你的数字生活,问自己:
这些内容是否真正丰富了我的生活?它们是否让我成为一个更好、更快乐、更理解他人的人?我是否因为这些内容而变得更焦虑、更愤怒、更偏执?不要害怕做减法。卸载那些让你感到焦虑的应用,取关那些靠煽动情绪获取流量的账号,限制刷视频的时间。
一位成功"数字断舍离"的朋友告诉我:"最初几天会有强烈的FOMO(错过恐惧),但两周后,我感到前所未有的平静和清醒。我重新找回了对生活的控制感。"
互联网和算法本身并非恶魔,它们只是工具。问题在于,当前的商业模式让这些工具优化了错误的目标——它们被设计成最大化你的注意力,而非最大化你的福祉。
作为用户,我们并非完全无力。通过了解这些机制如何运作,通过有意识地选择我们接触的内容,我们可以重新夺回对自己数字生活的控制权。
当你下次发现自己正在观看一个让你感到愤怒或恐惧的视频时,请暂停一下,问自己:这真的是我想要的信息diet吗?这是否有助于我更好地理解这个复杂的世界?
数字世界应该扩展我们的视野,而非将我们困在越来越窄小的极端信息茧房中。培养数字素养,主动寻求多元观点,定期进行数字断舍离,我们才能真正从信息的奴隶变为主人,才能在这个信息爆炸的时代保持清醒与平衡。
毕竟,能够主动选择我们接触什么样的信息,以及如何理解这些信息,是数字时代最宝贵的自由与能力。
来源:左岸桥西一点号