摘要:平台经济,已成为和每个人的日常生活息息相关的现实存在,也极大地促进了经济发展。金融业、服务业、零售业、制造业乃至农业,诸多行业都被平台经济改头换面。我们已无法想象没有平台经济的生活。
平台经济,已成为和每个人的日常生活息息相关的现实存在,也极大地促进了经济发展。金融业、服务业、零售业、制造业乃至农业,诸多行业都被平台经济改头换面。我们已无法想象没有平台经济的生活。
然而,平台经济的无序扩张也带来许多挑战。其中之一便是信息茧房。社交媒体是价值中立的平台吗?用户是否被平台困在了 “信息茧房”中?这一问题不仅困扰着监管部门,也困扰着我们每个人。
所谓“信息茧房”,指的是在信息洪流中,人们倾向于只关注和吸收符合个人偏好的信息,从而逐渐构筑起一个封闭的信息环境,类似于蚕茧。而在平台经济时代,这种现象尤为显著,平台企业利用大数据和算法推荐技术,精准地向用户推送他们感兴趣的内容,这不仅满足了用户的即时需求,也无形中加深了信息茧房的壁垒。
如今,平台经济野蛮生长的时代已经过去,在规范中发展,于有序中繁荣,是当下正确发展的方向。平台经济迎来“强监管”,各级会议、多个文件,明确提出 “强化反垄断和防止资本无序扩张”。11月22日,国务院总理李强主持召开国务院常务会议,研究推动平台经济健康发展有关工作。会议指出,要规范市场竞争秩序,健全常态化监管制度,推动平台企业规范经营、有序竞争、提升质量,促进各方主体互利共赢。
如何对平台经济进行规范,有效改善“信息茧房”问题,《平台经济:创新、治理与繁荣》一书将对此进行解答。
一、平台的治理功能
在一个传统经济中,企业、市场与政府分别发挥经营、交易与调控的功能。但平台企业打破了上述三者之间的分工边界,它既是经营主体,又是交易场所,同时还发挥一定的调控作用。平台兼具经营、交易和调控功能可能导致的一个问题是平台既做裁判员,又当运动员,实行“自我优待”的做法,包括以平台利润为目标做导流、搜索,这样就会破坏市场秩序,造成不公平竞争,损害消费者利益。
当然,这种突破边界的现象并不是第一次出现,传统经济中百货公司和农贸市场的经营主体也有类似的功能,只是因为它们都是在线下经营,规模相对有限。而平台企业动辄涉及数百万家企业、十几亿个人用户,再加上大数据分析的应用,很容易放大平台上的一些潜在矛盾。
这里讨论的平台经济治理包含两个层面的内容:一是平台治理;二是公共治理,包括政府治理。
前者关注平台如何处理平台与用户以及用户之间的关系,而后者则涉及平台在社会治理中的作用。平台作为企业要接受政府的调控,但平台也要发挥一定的调控功能。
一方面,平台可以发挥辅助政府治理的积极作用,包括参与电子政务、数字政府、城市大脑、金融信息等公共服务平台的建设。比如在新冠疫情期间,电信部门提供数据验证“健康码”“行程码”,为控制病毒传播和重启经济活动做出了重要贡献。移动支付工具支持一些地方政府发放消费券,起到了直达消费者、稳定老百姓生活的作用。这些都是平台支持社会治理的成功案例。
另一方面,平台和政府在发挥调控功能方面如何分工、配合,确实是一个比较敏感的问题。比如,假如电商出售假冒伪劣产品,这个问题的治理责任主要在平台还是在政府?再比如,假如约车平台上出租车司机与乘客发生纠纷,一般的理解是应该由平台设法解决,但如果纠纷的一方对平台的处理方案有异议,能否以既定的程序要求政府部门介入?
但其实最为敏感的还是平台企业在社会治理中扮演的角色,尤其是涉及政治与意识形态话题时,相信这也是监管部门关注“资本无序扩张”的主要指向。在国外已经有平台干政的先例,比如利用脸书数据影响总统大选,推特禁言时任美国总统特朗普也属史无前例。这些风险都值得密切关注。
不过课题组认为,我国在防范这类问题方面有制度性的优势,采取管理措施的障碍也相对小一些,因此不太可能造成大的风险。当然,平台经济时代信息传播速度非常快,也容易造成“信息茧房”,而且数据算法很容易助长民意的极端化。
总之,平台治理的目标应该是公平、公正、透明。平台企业既然已经突破了一般企业的范畴,就应该主动承担一些社会责任,做负责任的平台企业。在平台治理的过程中,既要限制平台过度“谋私利”,又要保障平台合作者之间的公平竞争,同时还要保护消费者利益。
政府也应尽可能清晰地为平台指明作用空间与规则,该由政府做的,要主动作为,该让平台承担的,也要明确目标、规则与后果。当然,平台经济是一个新生事物,政府与平台在治理方面的分工也会是动态的,最好的做法是保持日常性沟通与交流,根据新的情况灵活调整双方的功能,实现平台经济的有序发展。
二、算法为王,社会治理核心的挑战
数字时代平台经济中不容忽视的趋势是,算法正在成为社会治理的核心,关于人的重要决定越来越多由算法做出。根据《不列颠百科 全书》的定义,算法是“在有限的步骤中生成问题答案或者解决方案的系统程序”。
在带来众多机遇的同时,算法的应用也带来不少管理方面的挑战,其中算法歧视、算法黑箱、算法助力垄断等问题格外受关注。
一是以“大数据杀熟”为代表的算法歧视问题。这是指地位稳固的垄断平台或企业还可以运用大数据分析和用户画像,区别对待不同用户群体从而获取垄断收益的现象。这里的用户既包括消费者,也可能包括供应链上的其他环节,如商家、外卖员等。
二是算法黑箱问题。在科学、计算和工程中,“黑箱”是指一个只能看到输入和输出信息、其内部工作原理无法或者很难被观察的系统。
算法黑箱是指由于技术本身的复杂性和一些排他性商业政策,算法犹如一个未知的“黑箱”,用户不清楚算法的目标和意图,不知晓设计者和使用者对算法生成内容的责任归属,更无法评判和监督相关算法及其设计者和使用者。人类的普遍利益在于实现可理解、可信赖的人工智能。因而算法黑箱是目前需要面对的紧要问题。
三是与算法相关的垄断。这是指为了确保和巩固自身的数据利益和优势地位,处于市场支配地位的平台企业可能会利用大数据和算法来排除和限制市场竞争。
具体来说,一些平台或企业可以运用算法规则、垄断协议、拒绝交易、纵向约束等方式,策略性设置数据访问和数据共享壁垒,增加用户转换成本,提高其竞争对手进入市场的门槛和成本,防止后者以此来跨越市场壁垒,进入其所在的市场与其展开竞争。
与算法治理相关的问题还有不少,如算法不平等(算法的内置歧视规则影响社会收入分配、福利公平性)、算法共谋(平台经营者或平台内经营者通过算法进行共谋垄断)、算法共振(如算法使多个金融平台对某事件迅速产生同方向的反应,加剧金融系统风险)等问题,在这里不一一列举。
三、算法治理问题的形成原因
需要看到的是,算法治理相关问题是数字技术优势的副产品,也就是说,在一定程度上,算法带来的收益与算法治理问题是一枚硬币的两面。
数字技术的一个主要优势就是能满足长尾客户的需求,而这一特征本身就标志着由于可以触达的消费者变得更加多样化,因此需求更为多样化,为满足这些需求,相应就会有更多产品。
要满足多样化需求,平台企业除了对不同群体采取差别定价外,也面临如何在给消费者良好体验的背景下迅速满足需求的问题。这就对算法提出两个要求,一是算法速度要快,二是预测要尽量准确。但是,对同一个消费者同时展示所有产品既不现实,也无法提高服务效率,提升消费者体验。
因此,对不同消费者展示不同的选项,是提高效率、提高用户体验的必然选择。从价格角度看,就出现“大数据杀熟”问题;从产品内容角度看,就更容易基于用户过去的选择而推荐类似产品,从而产生“信息茧房”问题。
其次,基于预测分析的常用算法重预测效果,但是不重视因果分析。现有常用算法包括无监督学习的聚类算法,如采用K-means聚类等方法将用户和个体、书、音像制品等分类,以及有监督学习的支持向量机、卷积神经网络(CNN)、图卷积神经网络(GCN)等。
这些算法的共同特征是追求尽可能准确的预测,而不追求对从输入到输出的因果关系的推演。要利用好已经获得的大数据实现短时间甚至实时的相对准确的预测,模型往往比较复杂,涉及很多参数。
这就容易产两个问题:一是模型可解释性差,即便是模型设计者也难以说清给定输入为什么会得到最终的输出;二是由于预测都是根据历史数据而不包含人做决策时会采用的对未来判断的信息,预测容易进一步强化过去的行为表现,从而产生“信息茧房”等问题。
再次,存在对算法的认知误区,认为算法的判断比人的判断更准确,高估算法的效率、公平和有效性,低估其负外部性和对人与社会的负面福利影响。这样的认知误区至少有三类。
一是认为有大数据就有了全样数据,基于这样的数据的判断是准确的。平台企业收集的大数据往往是在特定时期、特定领域的颗粒度很细、维度很高的数据,但是这样的数据不一定是全样数据,根据这样的数据得出的预测未必能外推到其他时期、其他领域去。
二是认为算法是中立的,因此根据算法做决策比由人来做决策更客观、更公正。算法模型往往涉及大量的参数设定,这些参数的设定与调整往往需要人来做决策;另外,算法模型在使用过程中需要不断优化以适应新环境,模型如何优化的决策也需要大量的人参与。
因此,不能认为人做决策可能受到疲劳、情绪等外部因素的影响,而算法不受这些因素的影响。
三是重视技术但忽略对经济、金融或者行业相关领域专业知识的运用。算法决策只能基于可以输入模型的历史数据,如果只重视技术而忽略相关专业知识,易于加剧算法歧视,产生算法共振等相关风险。
最后,在平台经济发展的基础上,算法在减少信息不对称的同时,也可能制造新的信息不对称。这种新的信息不对称可以来源于以下几个途径。
一是基于算法的决策虽然可以满足“千人千面”的需要,但是由于这千人并不见面,互通有无的成本高,基于算法的价格歧视不易被发现。
二是由于算法模型复杂,采用的大数据很难提供给第三方,导致预测结果难以复制,也难以交叉验证,平台自说自话,而监管部门取证也存在较大困难。
三是由于算法可解释性差,算法相关决定难以解释原因,投诉与纠错无门。
四是算法模型迭代更新快,不易形成稳定预期。
总结而言,平台经济中算法治理问题的出现,一方面是由于这些问题是与算法相关的技术进步的副产品,另一方面是由于强调算法决策的优点而忽略其弱点,未能恰当设立人辅助决策的应急措施。
利用算法决策的好处是效率高,但其发挥作用有前提条件,发挥作用的程度也受到一定条件的限制。
这些限制条件包括:生成数据的目的与分析数据的目标可能不同;如果原始数据质量差,就会存在“垃圾进、垃圾出”的问题;数据分析结果难以外推;算法涉及的参数设定等无章可循;分析结果不易复制、不易交叉验证;等等。
与此相应,虽然人的决策存在受疲劳、情绪、社会网络等人自身和其他看不见的因素影响,但是人对于所处环境的洞见以及对未来的判断能够形成不同的“软信息”,需充分重视人决策的重要性。
四、如何治理?“一刀切”监管不可行
第一,治理算法歧视等问题最好的办法是用技术解决技术带来的问题,尽量通过恰当的治理机制设计,来实现取长补短,而不是采取“一刀切”式监管。从国际经验来看,美国与欧盟、英国以及其他国家在算法治理方面的思路存在差异。但总体来看,发达国家在算法治理问题上的主要思路还是通过发展技术来解决新技术带来的问题,尽量通过恰当的治理机制设计实现取长补短。由于算法歧视等问题是数字经济、数字技术发展的副产品,因此在监管过程中不宜一刀切,不宜妖魔化。
第二,推动平台将针对多方的计价规则、流量分配规则等透明化。虽然算法治理存在挑战有一定合理性,但监管部门在降低信息不对称方面仍大有作为。平台型企业业务发展过程中,存在各类规则披露不充分、制定标准对利益相关方不透明等问题。
例如,网约车平台往往会给出预估价,但是计价规则并非一目了然,用户需要花费很多精力从平台中寻找相关规律。又如外卖平台对不同商家的流量分配规则不清晰,引发商家对是否存在“劣币驱逐良币”问题的担忧。可以借鉴国际经验,通过推动平台更充分全面披露相关信息,帮助公众理解各类规则的合理性,从而对自己是否被“算法歧视”等有更多的监督能力。
例如,可以通过要求平台事前通知、事后解释、公布排序算法规则和收费标准等提高决策的透明度,也可以通过监测结果、保障数据质量、为员工提供培训、提供人工干预等方式保证算法决策的质量等。
第三,监管部门需要对平台人为制造出不对称问题采取措施,加大对平台人为制造信息不对称的治理力度。例如,网约车平台针对同一段行程对司机、乘客采用不同计价规则的做法,构成了新的类型的差别定价。
这类差别定价,在其他平台企业也可能存在,例如顾客支付外卖配送费与外卖小哥收取配送费的计算规则可能也有很大不同。监管部门可考虑要求平台对不同定价的合理性做出解释,对不合理的定价,应当坚决要求其予以整改。
第四,推动算法审计,实现长期有效监管。算法审计指收集有关算法在特定应用场景中使用时的表现数据,然后用这些数据来评估算法是否对人们的某些利益(或权利)产生了负面影响,从而评估算法本身好坏的过程。算法审计的主要目标包括对算法歧视程度的评估、对算法透明度的评估等。
对不同平台型企业,审计目标的侧重点可以不同,如在审计给人评估特定分数(如信用分)的算法时,审计关注的重 点是算法歧视问题;而对于个性化定制的广告和各类产品的相关算法而言,审计主要集中在算法透明度等问题上。
监管部门推动算法审计至少可以有四个方面的作用。
一是评估某些算法是否合法合规,如监管部门审计银行的放贷算法,以评估其是否确实能够在不增加不良率的情况下做好风控。
二是评估算法是否符合经济社会运行规律,是否能避免“劣币驱逐良币”现象。例如,让骑手送餐时间越来越短的算法是否存在危害交通安全等道德方面的设计瑕疵,让便宜但食品安全没有保障的外卖获得更多关注和购买的算法是否危害消费者的食品安全需求,就属于算法评估的内容。
三是评估算法供应商和买家的风控能力,通过算法审计来评估相应企业面临的道德和声誉风险,以及在出现风险时的补救能力。四是为平台企业的利益相关方增加算法方面的信息透明度,帮助他们在投资、与平台打交道等方面做出知情选择。下面就算法审计的路径、框架和评估维度提出进一步建议。
在算法审计路径方面有两种思路,一种重视算法代码透明化,另一种重视对输入输出和结果的评估,我们更倾向于后者。在算法代码透明化的安排下,要求企业给出核心算法程序,由独立第三方企业或者公共机构直接评估算法程序是否合理。
这一安排的弊端在于,可能会涉及被审计企业的核心商业机密而被拒绝,而审查机构也无从知晓平台提供的算法与实际运行的算法是否完全一致。而重视输入输出和结果的审计安排中,输入审计是指要求平台明确在提供个性化服务的时候依据的是哪些重点维度,输出审计就是指要求平台报告所依据的算法,最主要追求的目标是什么,同时要求平台报告算法的相关成效,并评估相关成效。
就算法审计的具体框架而言,可以要求平台明确对不同利益相关方报告如下几个维度的算法安排。
一是预测或优化目标:阐明算法设计时如何考量利益相关方的核心利益(如滴滴的司乘双方的人身安全,外卖中消费者按时获得优质服务而商家获得应有收入),以及算法实施时预测或优化的具体指标,对实际的预测或优化指标与想要达到的预测或优化指标之间的差异进行说明。
二是对算法训练和算法评估及选择中用到的数据进行说明:描述数据中各个指标的含义,阐明数据是如何收集的,排除一些数据的原因是什么(例如,数据质量),数据对整个利益相关方群体是否具有代表性,等等。
三是算法使用的技术:说明哪些技术(例如,回归分析、神经网络、随机森林等)被尝试过,采纳最终算法的原因是什么。
四是算法运行效果:包括预测精度、与利益相关方核心利益相关的指标的结果等等。
五是有关个人信息保护和数据安全的具体安排。
就算法审计的具体评估尺度而言,可以借鉴国外一些审计框架。例如布朗等建议从歧视、有效性、透明度、直接影响、安全性这五个方面审计。
其中,歧视包含社会性歧视和统计歧视程度;有效性包括准确性、稳定性、可复制性以及数据使用效率程度等;透明度包含数据架构的透明程度、可解释性、平台使用透明度、数据收集与使用透明度这四个方面;直接影响包含对误用、滥用可能性和违法可能性的评估;安全性指算法和数据在使用中的可获得性与安全性这两个维度等。
通过对平台企业的算法在上述五大维度及其分项按照合规程度进行高中低等分级打分,帮助利益相关方和社会公众对平台的算法合规程度有全面的了解,使企业有更高的积极性用合规的算法来推动自身发展,推动我国数字经济的健康成长。
目前,我国的个人信息保护和数据安全监督管理工作由网信办负责统筹协调,因此算法审计的监督管理工作也可考虑在数据治理委员会的指导下,由网信办负责统筹协调。算法审计可以由独立第三方机构具体执行。建议网信部门要求平台企业定期(如年度、半年度或季度)进行算法审计,并在出现负面影响较大的经济社会事件时进行算法审计。
来源:中信读书