互联网大厂的“鉴黄师”,看片看到集体工伤!

360影视 2025-01-11 16:00 2

摘要:最近,200名来自非洲国家肯尼亚的外包员工,起诉了脸书的母公司Meta,以及雇佣他们的外包公司,诉状中涉及多项严重指控,包括故意精神伤害、不公平劳动合同、现代奴役以及非法裁员,总计索赔16亿美元。

身为全球顶流APP的脸书,怎么就成了员工眼里的“非死不可”?

最近,200名来自非洲国家肯尼亚外包员工,起诉了脸书的母公司Meta,以及雇佣他们的外包公司,诉状中涉及多项严重指控,包括故意精神伤害、不公平劳动合同、现代奴役以及非法裁员,总计索赔16亿美元。

目前有相当多的国外媒体报道此事,《卫报》、《时代》都在追踪,还有很多人权组织、劳工组织,也在关注这个案子。在他们眼中,这次审判的结果,很可能改变各大平台的运作模式,也会改变整个互联网的生态。

卫报

原因很简单,跟Meta闹上法庭的这200个外包,做的是一项特殊又常见的工作,内容审核员,即中文互联网上俗称的“鉴黄师”。

自2019年起,Meta通过一家肯尼亚外包公司,雇用了大量的当地员工,专门审核非洲区脸书用户发布的内容,他们每天都需要接触大量的不健康内容,仔细鉴别其是否符合平台规则,并将违规内容从平台上剔除。

如果我们将视角更微观一些,会发现审核员这份工作更残酷的细节。

根据涉事者的回忆,他们在招聘启事上看到的工作内容,只有客服或者筛除虚假信息,当你真的去面试了,主管会要求你签一份保密协议,然后才说出实话,工作内容是帮脸书审核违规内容。

而审核员的入职培训也非常离谱,就是一群人站在大屏幕旁,集体观看违规的内容,每播一条,就随机抽个实习生出来,让你一段段分析,图片和视频是哪里有问题,具体违反了哪条规定。

有位女审核员清晰地记得,她抽中的是个凶杀视频,她只能目不转睛地看着屏幕里,一个人拿着利刃,一下两下三下,白刀子进红刀子出,把另一个大活人直接捅死,血流了一地。

看得她浑身颤抖,还要强装镇定,跟主管分析视频内容,在培训结束后,她直接冲进厕所,关起门来痛哭。

另一位审核员抽中的则是腐尸的照片,具体画面就不描述了,反正她经历过培训后,只要看到蜂窝状的东西,或者什么蠕动的虫子,肠胃就会一阵翻滚,忍不住想要呕吐。

还有个更倒霉的审核员,主管分给他的是极端组织发的斩首视频,恐怖主义+血腥暴力,分析倒是不存在难度,但这是当众考核,再加上非洲混乱的社会环境,让这位仁兄换上了PTSD,下班出门都要担心起恐怖分子跟踪。

而他们的日常工作,就是类似场景的无限重演。

审核员需要维持平均每50秒审1条内容的速度,不管是文字、图片,还是长短视频,都需要快速看完并确定是否违规,否则用户就会因为发布延迟而不满。

他们每天还要工作8到12小时,达不到这个速度或者无法承受高强度劳动的人,会被公司迅速解雇。

久而久之,几乎全部的审核员都受到了严重的心理创伤,起诉Meta的外包员工中,81%的人被医院诊断出出严重或极其严重的创伤后应激障碍(PTSD),还有许多人表现出了广泛性焦虑症 (GAD)和重度抑郁症(MDD)。

这种创伤是持续性且难以自愈的,哪怕他们离职,病情也没有明显好转,其中有大约40人,因为过于痛苦,选择了用酒精和管制药物来麻痹自己,最终成瘾,把人生搞得一团糟,甚至闹到了妻离子散的地步。

这么个让人身心俱疲还可能影响一生的工作,脸书开多少买命钱呢?

答案是时薪1.46 美元,折合人民币就是10元。

一块5090显卡的价格,就能让他们工作1370个小时了。这么点钱根本无法弥补观看大量不健康内容带来的心理损伤。

两年前,该外包公司终于有一位员工勇敢地拿起法律武器,要求Meta赔偿身心损失,结果Meta立即指示外包公司开除了与他交往比较密切的几位同事,此后又开掉了43名试图建立工会和组织罢工的审核员,今年1月更是开启大裁员模式,让外包公司开掉了260个审核员,全都是Meta认为“不可靠”的。

其中有名领头的审核员叫莫塔翁,他回忆道,当Meta知道审核员们准备联合反抗之后,直接派了两个管理层空降肯尼亚,现场指挥外包公司镇压他们。

这两个美国人刚开始试图通过私下给他涨一倍工资来收买莫塔翁,希望他拿钱之后不要再“搞事”,结果遭到拒绝,美国人马上变脸,转去威逼利诱其它员工,让十几个人投诉莫塔翁有职场欺凌、骚扰和胁迫的行为,以违反员工守则的理由开除了莫塔翁。

对于其它想反抗的员工,Meta也是这么干脆又直接,年薪20万美元、高高在上的美国管理层,毫不掩饰地给这群审核员撂狠话,“要么脱离工会,要么就等着被开”,“你不干,有的是人干”。

《Business inside》

确实有些人放弃了,他们担心持续跟脸书对抗会失去收入来源,也担心被打击报复,以后在当地的互联网行业再也找不到工作。

但也有一部分人,不愿意看到脸书和外包公司如此压榨员工,是要讨回公道,于是就有了开头那一幕,200名愤怒的审核员联合人权组织,将Meta和外包公司给告了。

案件目前还在审理之中,但深陷舆论风波的Meta已经等不了了,赶紧出来回应。Meta认为这些指控并不成立,关于身心伤害,Meta坚持称自己已经给审核员提供了必要的“防护措施”,对违规内容进行无害化处理,并且还要求外包提供心理健康咨询。基于这一点的,时薪1.46 美元也是非常合理的,已经高于了肯尼亚的最低工资标准,你还要怎么样?

外包公司甚至辩解称,60%到70%的审核员在接受这份工作前,都生活在贫困线以下,是自己带领他们脱贫了,功德无量。

审核员们也迅速回击,揭露了更多的真相。

脸书所谓“防护措施”,就是把简单的图片或者视频变成黑白或者降低分辨率,画面确实没那么刺激了,但你也根本看不清内容,就没法做出判断,一旦错判就要扣工资,所以审核员们根本不会用防护措施,都是直接看原图原片。

至于心理咨询师,更是从没见过。

不知道大家看到这种解释怎么想,反正连美国的媒体都看不下去了,纷纷站在审核员一边,新闻标题写满了对Meta的嘲讽。《走进脸书的非洲血汗工厂》、《Meta如何剥削新时代的奴隶》……

《时代》

而这样的互联网血汗工厂,并不止一家。

根据《卫报》的统计,脸书在2016、2017年几次因为不当内容引发争议后,就大力扩充了审核员队伍,多以劳务外包的形式存在,目前有多达40000名脸书审核员分布于全球各地,管理来自不同大区、不同语言的内容。而脸书还仅仅是Meta旗下的平台之一,Meta又只是互联网巨头之一,可想而知,整个审核员的群体是极为庞大的。

审核员们状告Meta。2018年时,Meta就被迫支付5200万美元,与数千名在美国工作的脸书内容审核员达成和解。这些审核员的年薪仅为2.88万美元,远低于当时美国平均水平的3.6万美元,还不到Meta正式员工薪资的1/3。

但他们干的是整个Meta最脏最累的活,和肯尼亚的同事一样,天天盯着违规内容看,每天要审核数千个帖子内容才算达标。2019年,佛罗里达州一位审核员猝死在了工作岗位上,也唤醒了其他人的反抗意识,于是他们对Meta发起了集体诉讼,并获得了赔偿。

可能是经过这件事,脸书意识到了,在高薪资且法律完善的发达国家设置这种岗位,是非常不划算的,外包到欠发达国家才是性价比最高的选择。

为了降低人力成本,也为了适应不同地区语言环境,Meta将大量的脸书审核岗外包到了有大量廉价劳动力的第三世界国家,像肯尼亚,审核员的薪资还不到美国外包岗1/8,四舍五入等于免费,Meta在菲律宾、印度也找了很多外包。其中印度外包公司的入职年薪为10万卢比,差不多相当于1500美元,折合成日薪也就每天6美元。

但他们每天需要工作8小时,而且是分早晚班的,公司必须7x24小时维持审核能力,每个班次要审阅超过2000个帖子,平均每分钟大约4个。而Meta对于准确度的要求是必须达到98%以上,漏判错判都要罚款。

而且印度分部脑洞清奇,直接让员工分组审核特定内容,有的组专门鉴黄,有的组专门看凶杀,还有的组整天都在观看自杀直播。

一部名叫《网络清道夫》的纪录片,则揭示了菲律宾分部的状况,这里的劳动强度更是丧心病狂,员工每天上班只有固定的两次 15 分钟休息和 30 分钟的午餐时间,另外还有 9 分钟所谓的“健康时间”,其余时间全部要坐在电脑前审帖子。

他们的KPI指标,达到了惊人的每天2.5万条帖子,审完才能走,而且每个月出错不能超过三次,否则就会被开除,菲律宾审核员都无奈地自嘲,“感觉这浏览量可以申请吉尼斯纪录了”。

《网络清道夫》

不止是Meta,其它的互联网企业也这么干。

像肯尼亚那家脸书的外包公司,它同时还跟谷歌微软以及亚马逊合作,也是提供类似的廉价审核员服务。

TikTok也在北非和东非找了大量的外包,光摩洛哥审核中心就有1400名审核员,他们平均每小时要看200个短视频,不过时薪好歹比脸书高点,“高达”3美元。

直播平台Bigo Live 则选择了巴基斯坦,巴铁虽然穷,大学生倒不少,花点小钱就能让桌子前坐满有文化的审核员。

约会应用程序GERDR,在洪都拉斯找到了外包团队,这里是美洲最贫困的地方之一,2美元的时薪就能让人卖命干活。

过去我们说奴役、说剥削,可能脑海中浮现的是在棉花田里劳作的黑奴,和奴隶主扬起的鞭子;后来画面又变成了,在阴暗的工厂中,目光呆滞的工人像机器一样重复着流水线组装工作,或者神情麻木地操作着缝纫机,为有钱的消费者生产手机电脑、鞋服箱包。

网络时代,剥削方式再一次升级了,巨头们用极低的价格,雇一群穷人吃掉互联网阴暗角落的剧毒垃圾,让其它用户能够享受看似体面的环境。

可能很多人看完审核员所承受的折磨,可能内心有个疑问。为什么不使用AI来替代人类审核 ?

首先有必要说明,审核员现在的庞大的工作量,已经是AI和自动化系统进行过滤之后的结果。

以脸书为例,用户们每天要上传20亿张图片,平摊到4万个审核员头上,每人每天要看5万张图,就算是号称“肝帝”的菲律宾分部,听了都要骂娘。

更何况除了图片之外,还有数以十亿计的博文、评论,以及视频和直播,都需要进行审核,还得保证审核时间不能太长,否则用户捉急,不可能全由审核员来管。

而全人类每天产生的数据,高达5271亿GB,相当于数亿个硬盘,而其中有相当大一部分是需要公开发布的,只要公开,就必然经过审核,如果只靠人工,那么需要海量的劳动力来完成审核,对社会运转都是巨大的负担。

所以,目前互联网企业普遍采用的是AI/自动化系统与人类审核员搭配工作的方式,具体企业的分配比例和搭配策略不尽相同,比较常见的模式是,AI先进行快速过滤,剔除掉可以完全确定违规的内容(尤其是即时通讯软件),剩下的一小部分可疑内容,再交给审核员来做最终判断;也有的公司让AI自行对内容进行判断,如果处理出现争议,再由审核员来解决用户的申诉和举报。

在顶流互联网企业中,AI通常可以分摊掉超过90%的工作量,但剩下那一小部分内容,依然需要人类来看,不管哪家企业都做不到完全舍弃人工。

像脸书,在2018年因为种种丑闻被国会老爷拖去质询时,就在听证会上承诺,会通过AI加强对内容的审核。这个AI项目甚至是由首席技术官迈克·施罗普弗直接领导的,有多达150人的核心团队,实力非常强劲。但AI显然没有彻底解决问题,Meta依然要为脸书招募大量的审核员。最让人哭笑不得的是,迈克·施罗普弗本人承受了巨大的压力,并且也在工作中接触了大量违规内容,心态直接爆炸,一聊起审核这事就哽咽含泪,还悲观地称“违规内容永远都不可能降到零”,直接干废了一个高管可还行。

还有个不信邪的案例,YouTube 搞出AI审核系统之后,就觉得自己牛了,直接炒掉了所有的审核员,省了10000人的劳务费。结果AI在接管YouTube的3个月时间内,直接下架了1100万个视频,什么概念呢?在审核员的管理下,YouTube一个季度下架的视频大约660万,相当于AI直接多“杀”了一倍,这里面包含大量误伤,直接导致用户和核心UP主不满,32万个视频被用户提出申诉。其结果是,YouTube不得不紧急返聘了自己开除的审核员,求人家回来上班。

当然,国内企业也是差不多的情况,宣传的时候,AI扫黄,1日处理10亿张,审核员即将集体失业。

然后到招聘平台上一搜,月薪6K,急招高级审核员。

至少在目前而言,AI还只能顶半边天,可以减轻审核员的负担,但无法做到完全替代人类。

04 黑话的智慧

这倒不是说AI有多蠢,它的长处在于速度和效率,以及永不知疲倦的工作态度,光靠这几点,还不足以对抗人类的最终武器——“想象力”。

2019年时,新西兰发生了震惊全球的枪击案,凶手冲进寺庙射杀了51人,并且全程通过脸书直播,网友也大肆传播枪击视频,而当时脸书的AI系统对此毫无反应,甚至都没有作为可疑对象上报给审核员,直到脸书得知发生枪击,才开始开规模删除。迈克·施罗普弗对此的解释是,过往的枪击案视频,极少有第一视角的拍摄,AI还以为这是啥FPS游戏,就直接开了绿灯。

从这件事你就能看出来,身为人类的用户,可以不断创造新类型违规内容,用新的手段去绕开规则,一切都是在动态变化的。而AI只能根据现有的经验做出反应,不能独立理解新的事物,也无法自己总结规律,所以审核还是需要有人参与。

类似的例子其实非常非常多,在某些平台,你发的文字里面如果带有“微信”会被系统自动屏蔽掉,于是用户们很快就学会了用“WX”来绕开规则,其它人看见这个缩写,能够很自然第想起实际要表达的内容,但对于AI来说就很迷惑,WX是什么单词么?还是人名?AI并不会像人类那样联想到原本的词汇去,需要审核员自己去发现这个规律,并且将经验传授给AI,它才能明白。等AI学会了屏蔽这个缩写,人类用户又迅速改用“V”来指代微信。

这还只是最最初级的变体表达,碰到更高级的黑话就更惨了。AI不可能自己想明白,“啵啵间”代表直播间,“搞米”等于挣钱,它也不可能猜到,“全国可飞”说的并不是航班,“租车包日”租的并不是车。就连电话号码,都能搞出无数种花样,大家能看出下面这一堆人名中藏着数字吗?

图片也是一样,就拿站在对抗AI的第一线的福利姬们来说。最早的时候是把图片旋转倒置或者P成黑白的再发,AI就识别不出来了。这个方法被AI掌握之后,她们很快又想出了发长图的办法,把大量无关的图片和擦边放在一起,做成一张长图,可以迷惑AI。再后来,她们又学会了把图片切成9张,粉丝在页面上看正好是完整的九宫格,还有人把擦边图融入GIF,有些平台的AI只检测GIF的第一帧,识别不了后面的擦边。

说白了,内容审核是个魔高一尺道高一丈的过程,而AI本身没有创造力和想象力,永远都处于被动的一方。

另一个问题在于,哪怕是同样的内容,AI和审核员也经常做出不同的判断。

根据审核员的说法,脸书给他们培训的时候,拿美莱村惨案当过教材,这是一场大屠杀,发生于越南战争期间,留下了大量的血腥照片,几乎满屏都是受害者遗体,按照AI的识别标准,肯定是要屏蔽掉的,但脸书却教育审核员,类似的图片不能删除,这是著名历史事件照片,曾经产生过重大的社会影响,删除会让别人认为脸书在掩盖历史。

同理,脸书的AI会过滤掉虐待、酷刑的图片,但脸书要求审核员关注事件本身的性质,涉及政治议题的就不能轻易删除,典型例子为关塔那摩监狱丑闻,这所监狱关押着美军反恐行动的俘虏,被曝出大规模刑讯逼供,如果脸书屏蔽相关的图片,会被认为“干预政治”。

哪怕是大家觉得非常简单的审查色情内容,实际上AI和人也有很多分歧。AI的分析能力,能很清楚地知道你透了多少肉,有没有露点。但露点不等于应该毙掉,脸书存在一个豁免规则,允许母亲发布哺乳的照片,以保障女性的权利。这就麻烦了,AI也搞不明白你到底是哺乳和色情,特别是一些哺乳照中幼儿并未面对镜头,很难识别,经常出现误删。

05 AI也要审核员

AI目前还无法完全取代审核员,未来会怎么样,咱们不好说,但可以确定,AI自己的进化也需要审核员帮助。

2023年初,大家熟悉的OpenAI,也被美媒曝出了“黑奴”问题。早期的ChatGPT 调用了数千亿词汇级别的互联网数据库,这些资料从各个网站抓取,本身就存在大量的不健康内容,吃这玩意长大的ChatGPT总是在会话时输出不当内容,包括且不限于黄腔、暴力犯罪、性别歧视、种族歧视。为了解决合规性问题,OpenAI额外训练了一个能够识别有害内容的人工智能模型,并将其内置到ChatGPT之中,让它自动将大模型中的有害数据清除掉。

那OpenAI是怎么训练的呢?答案是人力。他们去非洲的肯尼亚找了一批外包审核员,他们每天工作9个小时,需要阅读并标注150到250 段OpenAI发来的文字,每段的长度从100个单词到1000多个单词不等,然后从中挑出违规的部分进行标注,以便AI进行学习,而这些审核员的时薪,只有可怜的2美元。

更离谱在于,OpenAI找的外包公司,跟Meta在肯尼亚找的居然是同一家,啊,又是你。

去年推出GPT4后,OpenAI一度对外宣称,GPT4对规则的理解能力更强,已经拥有了取代人类审核员的能力。但大家一看GPT4针对内容审核的训练模式,其实还是要人类介入,它只是跟政策专家做一样的题目,如果两者的判断不一,政策专家就要求GPT4给出解释。

然后一直迭代答案,直到GPT4给出正确的推理分析为止,这样GPT4就能通过解释对于规则的细节有着更深的了解,从而实现进化。

纵然拥有AI拥有庞大的数据量和强悍的算力,在这个的复杂世界中,跟多变的人心相比,它依然稚嫩得像个孩子。想要靠AI来替代审核员,就得先给AI找一堆审核员。

可能对于大厂的老板来说,唯一的好消息就是,人力,有时候比科技更加廉价。

来源:创意民工

相关推荐