摘要:“信息茧房”,如果你经常经常上网冲浪,对这个词应该不会陌生,它的定义就是我们关注的信息领域会习惯性地被自己的兴趣所引导,从而将自己获取的信息类型桎梏在像蚕茧一般的“茧房”中,你越看什么、越买什么,就越给你推荐什么。
01、是牢笼还是导向,信息茧房如何建成
“信息茧房”,如果你经常经常上网冲浪,对这个词应该不会陌生,它的定义就是我们关注的信息领域会习惯性地被自己的兴趣所引导,从而将自己获取的信息类型桎梏在像蚕茧一般的“茧房”中,你越看什么、越买什么,就越给你推荐什么。
显然,信息茧房的舆论漩涡的短视频和电商平台,但人性先天就是有反骨的,信息茧房的存在仿佛是一种禁锢,很难让人喜欢这个说法。所以,近日抖音集团副总裁李亮在接受媒体采访时就解释道:平台没有制造信息茧房的动机,推荐算法在信息过载时代扮演着提高信息获取效率的重要角色,减少用户因浏览大量无效数据而造成的时间和精力浪费。
· 用户画像背后的算法推荐系统
其实兴趣推荐的过程也是用户画像的过程,那互联网平台为什么需要给用户画像呢?最核心的目的是提高用户粘性,上网冲浪就像逛市场,走马观花的心态必然留不住用户,必须要准确地猜测用户兴趣并投其所好,才能更大程度地让用户产生依赖情绪。
而用户粘性是平台收益、内容分发、数据分析等后端操作的基础,通过个性化推荐提升用户体验、增加参与度、提高收益、优化内容分发、增强用户粘性,并通过数据分析支持平台决策,就是兴趣推荐的出发点。
用户画像对于当下成熟的互联网平台来说并不是难事
那么,互联网平台是完成兴趣推荐的呢?首先是收集用户数据,现在的互联网都是实名制,平台很容易获取用户的年龄、性别、地理位置等个人基本信息,也很容易抓取用户的点击、浏览、购买等行为数据。有了这些数据,哪怕不用人工智能,是个正常人都能判断数据主人的兴趣爱好了,更何况这个数据抓取是即时演进的,你有了新的兴趣,也会实时反馈到数据库里,所以这个数据收集和用户画像的过程是不断深化的闭环逻辑。
有了画像,就可以进行推荐了,而兴趣推荐的算法才是整个推荐系统的核心,而且千万不要片面地理解推荐算法,以为就是你喜欢巧克力就一直推荐巧克力。事实上并非如此,推荐算法的一大特点在于能“发现新的兴趣点”,挖掘用户潜在的兴趣和需求,为他们推荐新的内容和产品,帮助用户发现新的兴趣点和可能性。
比如你喜欢巧克力,那么算法推荐会不断以此来形成拓展,比如巧克力的制作过程、可可豆、巧克力题材电影、巧克力产品、糖果相关……就是不断拓展再拓展,绝不会只停留在只会推荐巧克力。
事实上,目前市面上大厂出品互联网应用,都有较强的用户新兴趣挖掘能力。比如我平时刷抖音就喜欢看游戏内容,但偶然推荐了一个游戏配乐的视频,再通过配乐找到了乐队表演的视频并停留了较长的时间。平台就顺着这个逻辑,将整个乐队成员的抖音账号,在几天内全都推送给了我,成功为我的账号开启了全新的兴趣推荐方向……
· 兴趣推荐算法,比你想象中更“聪明”
从技术角度来说,兴趣推荐算法的类型很丰富,正如前文所说的那样,现在的兴趣推荐算法不会你看啥就只推荐啥,它们会非常聪明地从其他角度来为你寻找新的兴趣。比如协同过滤推荐算法,它的基本逻辑就是为你划分用户池,所谓“物以类聚,人以群分”,跟你有相同兴趣的人喜欢的事情,你大概率也同样会喜欢,所以此推荐算法的逻辑就是找到与目标用户兴趣相似的其他用户,推荐这些用户喜欢的物品。
除此之外还一样基于关联规则的推荐算法,是通过分析物品之间的关联规则来生成推荐,比如你多次浏览了并收藏了某款平板电脑,那系统就会自动为你推荐平板的周边设备,比如触控笔、键盘、支架、耳机等等。
兴趣推荐遵循群体方案,把你喜欢的推荐给和你兴趣相投的用户
事实上,兴趣推荐算法在用户粘性的不同阶段也有不同的应用方式,对于在拉新阶段的应用程序而言,在第三方平台就会针对用户兴趣铺设开屏广告、内容间广告,比如开屏广告都是来自某电商,我打开就是电脑、数码产品,而女同事的则是化妆品、箱包。
当新用户进入应用之后,此时如果是根据其他平台兴趣推荐进来的,就依照这个兴趣数据进行内容推荐。如果没有获取他在其他平台的兴趣数据,就需要快速地进行用户画像,此时的推荐算法目的是新用户留存,现阶段的算法往往会根据热度,来尝试性地为用户进行多类型内容推荐,这也是为什么你在互联网平台新开一个账号初期会看到各种五花八门内容的原因。
兴趣推荐算法的背后是一套完整的阶段性流程
而在没有流失用户且正确获取画像之后,算法就会考虑内容推荐的强度问题,比如什么时候推、一天推几条、个性化和非个性化的内容如何配比……再到后期就会开始考虑转化率,所以才会出现买某个产品时出现,有些用户有优惠券,有些则没有的情况。如果用户处于沉默和流失阶段,系统还会通过短信、邮件等形式来尝试找回,因为短信和邮件也是有成本的,每天发给哪些用户,什么时候发,发什么内容,这些也都是由算法决定。
· 生成式内容技术,加速茧房搭建速度
如果说兴趣推荐算法是信息茧房的搭建手段,那么生成式AI就是信息茧房的建造“材料”,因为生成式AI可根据人类的需求和兴趣,创新性地生成相应的内容,如AI合成主播就开创了新闻领域实时语音及人物动画合成的先河,只需要输入所需播报的文本即可AI合成主播播报的新闻视频,而且音频效果和人物表情、唇动保持自然一致。所以人工智能的不断发展,在有意控制的情况下,的确有可能加剧社交媒体虚假信息的数量、速度、多样性及病毒式传播,形成算法歧视与“信息茧房”。
而且此事绝非空穴来风,早在2022年,市场研究公司SparkToro就对44058个活跃的Twitter账户进行研究,发现高达19.42%的账户是虚假的机器人账号,通过转发的形式迅速生成大量内容。而结合当下强悍的生成式AI能力,虚假账号甚至可以模拟专家学者的语言风格,为虚假内容增加权威性,使其在短时间内广泛传播,用错误的信息快速构建信息茧房。
Facebook每个季度都亿个为单位来清理虚假账号
事实上,信息茧房也并不是国内独有,在全球互联网平台,这都是一个讨论度极高的话题,比如在Facebook,根据调查,用户在选择成为Facebook好友的对象偏向于与自身生活方式、政治派别和同质化的群体。此外,高度同质化用户组成的群组也倾向于分享用户偏好的信息,导致信息窄化和人群极化,甚至形成“回声室效应”,也就是再也听不到第二种声音,坚定认为片面认知就是事实的全部。而谷歌也有类似的问题,最直观的标线就是相同的搜索内容,对不同搜索者展示不同的结果,这就是平台根据用户信息提供不同内容的典型表现,其目的是增加特定用户的结果的相关性。
显然,信息茧房是客观存在的,而且它还是一把“双刃剑”,提高用户使用效率的出发点我认为是好的,但正如历史上发生过的诸多技术事故一样,技术可能没有对错,但使用方式有,在生成式AI不断发展的当下,信息茧房无疑正走在历史发展的十字路口上,那么信息茧房的危害具体体现在哪里呢?
02、技术与商业利益难权衡
· 被特定信息流裹挟
在中文互联网平台,由算法和用户偏好共同构建起的所谓“信息茧房”并不少见,在商业亘古不变的盈利目标引导下,信息茧房也很容易进化出另一个我们熟悉的样态——“杀熟”。
如果读者现在打开手机中自己常用的app,尤其是带有社交性质的内容平台,会很自然地发现,在所有推送内容中一定会有与你兴趣高度契合的新闻资讯、商品或短视频。新闻资讯的立场很可能与自己的观点契合,推荐商品则是近期想买且价格区间能接受的,短视频更是会绝对迎合你目前最关注或最容易焦虑的部分。
小红书一位二胎家长就表示,从去年10月起,自己的短视频账号就被“甲流”“诺如”“儿童医院爆满”等内容包围,直到她带着孩子打完甲流疫苗才有所减少;一位传媒行业工作者则表示,自己喜欢看军事内容、男频小说,如果刷到一定会看完,结果闲暇时间全被各种相关的图文和视频内容填满,“有些视频一听就是AI配音,AI自动剪辑匹配的背景,理智告诉我这些毫无意义,但我就是很难停下来”。
同一视频下的评论,会根据手机系统、用户性别而不同
这些都绝非个例。目前中国网民规模已近11亿,互联网普及率接近八成,截至去年年中,中国短视频、网购、外卖、网约车、在线旅行预订(OTA)平台用户规模分别达到10.5亿、9.05亿、5.53亿、5.03亿、4.97亿,占整体网民比重均超过四成。
考虑到推荐算法的普及,上亿中国网民的一天大概都是这样度过:清晨打开新闻APP,阅读着个性化的咨询信息,工作时被浏览器搜索引擎时不时推荐的一些精准投放广告所吸引;闲下来刷一刷内容社交APP,正好看到周边周末自驾游攻略,打开OTA软件定一家正好在其预算内的酒店套餐;下班打车也离不开算法优化推荐的车辆调度和路线规划……
如前所述,在越来越“聪明”的个性化算法的持续推荐下,在网络侵淫越久,用户越容易形成固定的信息获取路径和内容偏好,犹如被束缚在自织的“信息茧”中。
· 互联网巨头的反驳
收割诸多流量的头部平台,到底有没有主动诱导用户沉迷于算法构筑的茧房?尽管头部企业负责人一直拒绝为信息茧房的产生背锅,但从商业盈利的根本动力出发,平台实在难讲“无辜”。
“个性化推荐”最早确实是环境倒逼的产物,目的是解决信息过载,最早可追溯到1995年由卡耐基·梅隆大学推出的个性化导航系统“Web Watcher”。这也是社交媒体巨头大佬们常常用来为自己辩解的主要论点之一:并非平台主动所为,而是为了迎合用户的需求。
扎克伯格推出News Feed时就认为这是为用户服务之举
Meta创始人扎克伯格在Facebook上推出News Feed(动态信息流)时就经常提到,平均每个用户一天的新鲜资讯有1500条,但用户最多只能看完其中的300条,“如果按照时间排序,用户体验会很差”,于是扎克伯格和他的工程师们写出Edge Rank算法,用以量化描述用户的“兴趣”并排序。
然而美国大选等政治大事节点暴露出News Feed推荐机制的大问题。它确实海纳百川,把真相,同时也把谎言分门别类、互不干扰地投给嗷嗷待哺的用户,假新闻包装得和权威电视媒体新闻一样在互联网肆意传播。
国内算法精准推荐的“重灾区”抖音,其发言人同样认为“平台主动制造信息茧房”的说法言过其实。
抖音集团副总裁李亮最近在采访中提出,信息茧房一词在推荐算法成熟之前就已经出现了,所以算法不是信息茧房形成的先决因素,并且短视频平台并非推动者而是最有动力打破信息茧房的一方。
国内主要社交媒体平台
他表示,抖音会刻意做多样化的推荐,避免内容越推越窄,“如果用户长期对宠物内容感兴趣,平台算法会在一个宠物视频之后增加其他内容,这就是多样性参数的加入”。可这并没有改变用户在某一平台获取信息范围日益狭窄的事实。
有品牌方市场投放负责人以及短视频平台商务工作人员告诉记者,短视频平台的算法尤为复杂,但平台本身的基础运作逻辑仍是基于数据的内容分发。
用户在平台上的观看、停留、转发、搜索等行为都会作为系统判断其兴趣导向的依据,据此判断出用户可能感兴趣的内容,并持续高密度供给相关内容,因此产生招商的关键标准之“用户黏性”,从而实现广告、电商等流量变现交易。但这一国内互联网惯用的商业模式,在用户侧就会表现出相对单一的内容获取,激进者称这是一种有预谋的“沉迷”,由此诞生出7亿月活用户的抖音和4亿月活用户的快手。
但是李亮的说法也没错,平台想要实现大规模广告变现,当然希望有画像更丰富的消费人群,去接受千人千面的营销内容,而不是固有的消费群体——所以才会不断在流量池中选取用户可能感兴趣的新内容进行推送,试探用户的兴趣疆域。
这也是平台要小心维持的平衡:既要保证平台用户的高度沉浸性和用户的强黏性特征,又要尽可能向用户提供多元化内容,保持其新鲜感,最终实现用户的长期留存。
· 算法优化的复杂性
据李亮透露,为了尽可能向用户提供多元化内容,避免其陷入信息茧房,抖音已做出诸多努力,例如引入搜索、社交分享和热点热榜等内容分发机制,以及加强社交推荐机制、刻意做多样化推荐、在算法中引入兴趣探索机制等。
平台此次主动整改的最大原因是2024年11月末召开的国务院常务会议,将平台经济的健康发展工作放至首位,再次强调平台对内要规范经营、提升质量,对外要保障消费者和劳动者的权益。在业内人士看来,新一轮监管将重点放在了平台长期累积的“疑难杂症”,其中就包括“困在算法里”的员工、同质化推送营造出的信息茧房。
多家平台近日释出算法变革的信息
除了抖音,今日头条同样释出要从推荐算法原理上入手“治本”的消息。其内部人员称,接下来会改变以用户画像和内容特征匹配的推荐模式,强化对优质多元内容的推荐,比如通过在现有算法推荐逻辑中引入“新颖度”打分,让新内容可以进入用户视野。
根据算法专项治理要求,平台应向用户提供退出选择,提供用于个性化推荐服务的个人兴趣标签管理功能,并让用户找到便捷的关闭算法推荐服务的选项,比如长按视频页面,可对内容或账号点击“不感兴趣”,现在已经是抖音、快手、小红书等平台的基本功能。
其实从2011年Facebook全面转向机器学习以来,公众对算法也不能说是一无所知的状态,用户自己是否也在不自觉地降低与不同群体对话的意愿和能力,构造令自己安心的茧房?
从传播学的角度看,推荐算法不仅迎合人们的行为,还符合人们的心理。美国一高校教授曾直言,推荐算法非常符合人们的信息选择机制“选择性接触”,即倾向于接触和他们的观念相近的信息,回避和他们的观念相左的信息。
这可能也是为什么会有用户对待个性化推荐的态度更偏向正面,认为这一模式“推送精准、节省了获取有用信息的时间”。
但这也并不意味着我们应该将信息判断权全权交与算法,它看起来省事,为我们避免了信息超载,却也能演变出极隐秘的偏见。
另一方面,尽管各大平台不愿承认,让用户看到自己想看的内容,和让用户看到平台想让其看到的内容其实是一回事。海量数据经过算法的精密分析,往往会用来作为信息资源,不断精进其“杀熟”技能。
03、拒绝算计,走出信息茧房
在数字时代,算法推荐如同一位精明的管家,为我们精心筛选信息,打造专属的知识宫殿。这座宫殿金碧辉煌,却暗藏危机:它正悄然构筑起一道无形的高墙,将我们禁锢在信息的孤岛之中。表面上,我们享受着算法带来的便利,实则正在经历一场无声的精神围困。
· 大数据的“舒适区”
在大数据和算法技术构建的茧房里,我们被自己喜欢和熟悉的信息所包围,仿佛置身于一个舒适的温室之中,这正是信息茧房两面性的体现。一方面,让受众的获取信息更加便捷,在一定程度上解决了海量的信息与用户需求的匹配度问题。但另一方面,在这个信息爆炸的时代,通过大数据分析,算法精准找到你的兴趣点,提供“私人定制”的精神美食,甚至被网友戏称为“大数据比我妈还懂我”,细究之下,这种舒适感却是以牺牲我们对社会的全面认知为代价的,并会带来一系列问题和隐患。
在这个被算法精心构建的虚拟世界里,不同群体之间的理解和沟通变得更加困难。因为每个人都被自己感兴趣的信息所包围,很少有机会接触到与自己观点不同的声音。这种信息的隔阂和偏见,逐渐转化为现实社会中的隔阂和冲突。不同群体之间的分歧和矛盾日益加深,社会的凝聚力和稳定性受到严重威胁。
信息茧房不仅加剧了社会分裂,还导致了认知偏见的加剧。由于用户只接触到与自己观点一致的信息,他们的认知框架逐渐变得狭隘和偏执。这种认知偏见不仅会影响个人的判断和决策,还会加剧群体极化现象。在群体内部,相似的观点被不断强化和放大,而不同的声音则被忽视或排斥。这种极端的思维方式和行为模式,不仅不利于个人的成长和发展,还会对整个社会造成严重的负面影响。
“信息过载”也是信息茧房的负面影响
相较于这两个问题,“信息过载”是信息茧房带来的另一个严重问题。在海量信息中筛选出符合自己兴趣的内容,本身就是一项艰巨的任务。而算法推荐系统虽然能够为我们提供个性化的内容,但并不能完全解决信息过载的问题。相反,由于算法的不断优化和更新,我们每天需要处理的信息量仍然在不断增加。这种信息过载不仅会导致我们的注意力分散和疲劳感增加,还会影响我们对重要信息的识别和判断。
总体而言,算法推荐系统通过追踪用户的每一次点击、停留和分享,精准绘制出个人的兴趣图谱。这套系统如同一位精明的心理学家,不仅了解我们的显性需求,更能洞察我们潜意识中的偏好。在商业利益的驱动下,平台不断优化算法,将用户牢牢锁定在特定的信息轨道上。这种精准推送创造了一个看似完美的信息世界:我们总能找到感兴趣的内容,与志同道合者交流。但这种舒适是有代价的,它让我们逐渐丧失了接触多元信息的机会,思维模式日趋固化。
而信息茧房的可怕之处在于它的隐蔽性,人们往往意识不到自己正被困其中,反而享受着这种"量身定制"的信息服务。这种温水煮青蛙式的精神控制,比直接的言论管制更具危害性。
· 反向驯化算法,夺回“用户画像”主动权
有的人在评论区故意留下“囊中羞涩”的言辞,借助匿名或换号的掩护,竟能神奇地“解锁”到“仅需9毛9的特价咖啡”;有的人在互动板块大吐苦水,直呼“价格高昂,无力消费,只能作罢”,然而不久后,他们便意外收获了比原价便宜数百元的机票;更有甚者,对着手机喃喃自语,抱怨某个应用“偏爱老用户提价”,但只要一狠心卸载后重新安装,便能收获意外之喜——一张让人喜出望外的优惠券。除此之外,还有人在社交媒体上公开表示对某品牌服装望而却步,结果转天就收到了该品牌的专属折扣链接,仿佛他们的每一声叹息,都被大数据捕捉,转化为量身定制的优惠信息。
随着大数据技术的广泛应用,用户逐渐意识到自己在算法主导的环境中处于弱势地位,尤其是当互联网平台通过算法对于户精准画像,从而实现个性化推荐和差异化营销时,“大数据杀熟”等问题甚至被“算法算计”。为了夺回“用户画像”的主动权,越来越多的年轻人开始尝试通过“反向驯化”策略来对抗算法的精准定位和个性化推荐,网上兴起的“momo大军”正是这一现象的典型代表。
年轻人正尝试“反向驯化”策略
“momo大军”的成员们深知,在数字化时代,个人的网络行为、消费习惯乃至情绪状态都可能成为算法定价的依据。面对这种基于大数据的“价格歧视”,他们并未选择沉默或被动接受,而是采取了积极的应对措施。他们通过统一的粉色小恐龙头像和类似格式的用户名,巧妙地掩盖了自己的个人特征,使得算法难以精准识别并追踪他们的行为模式。
“momo大军”的行为不仅是对算法定价的一种挑战,更是对隐私监控和消费主义的一种深刻反思这支大军活跃于各大社交平台,不仅关注如何逃避算法的精准推送,避免成为“大数据杀熟”的目标,还积极分享各种对抗算法定价的经验和技巧。他们清理缓存、使用匿名模式搜索,甚至切换不同的设备和IP地址,让算法摸不透他们的真实意图。通过这些手段,他们成功地打破了大数据的“千人千面”算法,为自己争取到了更优惠的价格。
这种策略的背后,反映了年轻人对隐私保护的重视以及对算法操控的反感。他们通过集体行动,试图重新夺回对个人数据的控制权,避免被平台过度分析和利用。同时,“momo大军”也成了一种网络亚文化,象征着年轻人对技术霸权的集体抵抗。这一现象让越来越多的人开始关注自己的数据隐私和权益保护,推动相关部门加强立法和监管,构建更加公平公正的互联网消费环境。
· 用算法打败算法,无规矩不成方圆
反向驯化算法的策略在一定程度上能够干扰算法对用户画像的建模,但其有效性并非绝对。
算法识别的多样性往往让用户在算法面前“无所遁形”,即使用户关闭了APP的某些权限或提供了假信息,算法仍然可以通过手机号、手机IMEI号等唯一标识符来追踪用户的行为。此外,算法还可以根据用户的浏览记录、购买历史等信息来判断用户的真实偏好。尤其是算法本身具有不断学习和优化的能力。当用户尝试通过反向驯化策略来干扰算法时,算法可能会逐渐适应并调整其模型,从而更加准确地捕捉用户的真实行为。因此,反向驯化算法的效果可能会随着时间的推移而逐渐减弱。
从用户的角度看,培养多元信息素养是突破茧房的关键。这需要用户主动接触不同观点,保持开放心态,学会从多个角度思考问题。在获取互联网信息的过程中,用户应有意识地选择多个信息源,平衡算法推荐和自主搜索,避免过度依赖单一平台。同时,要关注传统媒体的深度报道,弥补碎片化信息的不足。
加强算法监管是大势所趋
而在算法监管的实践中,平台内部监管是基础。由于平台掌握着大量数据和技术资源,它们在算法治理中具有天然的优势。平台内部监管是算法治理的第一道防线,平台需要建立算法伦理委员会,制定算法使用规范,加强算法透明度。然而,平台内部的自我监管往往存在利益冲突的问题,因此需要引入外部力量进行监督。政府监管部门需要制定算法治理的法规和标准,建立算法备案审查制度。
独立第三方机构可以进行算法审计和认证,提供专业评估服务。欧盟在《通用数据保护条例》(GDPR)中引入了数据影响评估(DPIA),要求企业在使用自动化决策时进行系统性的风险评估,并通过第三方审计来确保算法的合法性和公正性。我国近年来也逐步完善了算法监管体系,《互联网信息服务算法推荐管理规定》明确了算法备案、安全评估等要求,旨在通过多层次的监管手段,确保算法在运行过程中不损害公众利益。
04、写在最后:用好算法推荐系统这把双刃剑
在数字时代的浪潮中,算法推荐系统如同一把双刃剑,既为我们带来了前所未有的信息便利,又悄然构建起了信息茧房,将我们束缚于狭隘的认知空间。然而,面对算法的精准操控,我们并非无计可施。从“momo大军”的反向驯化策略,到用户主动培养多元信息素养,再到平台和政府的监管措施,我们正在通过各种方式试图打破信息茧房的束缚。这些努力不仅是对算法霸权的挑战,更是对个人隐私和自由思考权利的捍卫。
来源:小A的