【编者按】在线社交空间和信息空间里的内容审核并不新鲜,自从网络社交空间诞生以来,在过去40年里,一直有人在制订和推行各种参与规则。但是由一群职业化员工为大型商业机构从事大规模、有组织的有偿审核工作,是一种新现象。
美国加州大学洛杉矶分校教育与信息研究院助理教授莎拉·罗伯茨于2010-2018年间访谈了许多离职及在职的商业性内容审核员,全面考察了美国互联网商业性内容审核工作的不同类型,揭示了审核员们的生存境遇。本文摘自《幕后之人:社交媒体时代的内容审核》,广东人民出版社/万有引力,2023年5月版。澎湃新闻经授权刊发。
谁来决定?MegaTech的内部政策制定和应用
MegaTech(化名)的审核员在审核内容时需要遵守一套内部政策,这些政策是由他们的上级一安全与政策部门(简称SecPol)的全职员工制定的。这些极其详细的内部政策是商业性内容审核员判断内容的标准,它们没有向社会公开,而是作为商业机密在内部使用,服务于公司的品牌管理。保密的部分原因是防止不怀好意的用户钻空子,通过打擦边球或者故意规避规则的方式在平台上发布不良内容。此外,披露商业性内容审核政策也会让局外人获悉公司审核员的工作性质。如果内部政策被曝光,触发审核机制的内容种类也会被曝光,拥有光鲜形象的平台就会暴露出它极其丑陋的一面,毕竟在人们眼中,平台的功能是提供娱乐、乐趣和自我表达的渠道,用户可以直接通过平台将内容传播到全世界。曝光内部政策还可能会引发关于政策所依据的价值观的难题,审核员们肯定懂得这一点。乔希告诉我:“我们在运用政策时试图维持全球化的视角,至少他们是这样说的。我感觉他们依据的是美国的价值观,因为比如像裸体这样的事情,我的意思是上半身裸体,除了在中东和日本这些地方之外,在很多欧洲国家和其他地方都是被允许的。但是在这里,我们就要将裸体内容删除。”
正如乔希这样的商业性内容审核员所指出的那样,尽管MegaTech的名字本身就象征着互联网,而且它拥有全球性的影响力和用户群,但它关于用户生成内容的政策是在特定的、少有的社会文化环境中制定出来的,即教育程度高、经济发达、政治上信奉自由主义、种族单一的美国硅谷。公司的内部政策往往首先反映了公司对品牌保护的需求,同时它也是一种用鲜明的美国自由主义来解释言论自由、信息自由等概念的机制。社会规范也是通过美国和西方文化的视角折射出来的,倾向于反映白种人的观念。
因此,对于平台所青睐的这些复杂的价值观和文化体系而言,商业性内容审核员可以被理解为它们的载体和代理人,即使在公司的规则和审核员自身的价值观相冲突的时候也是如此。马克斯解释说:
我们拥有逐条罗列、非常具体的内部政策。它们是保密的,否则人们就能很容易规避它们。我们会经常讨论一些非常具体的内部政策,每周要和安全与政策部门开一次会。比如说,系统不会将涂黑脸(blackface)默认为仇恨言论,这总是让我很恼火,让我崩溃了差不多十次。我们开会讨论政策时,平心而论,他们总是倾听我的意见,从来不会禁止我发言。他们不同意我的看法,也没有改变过政策,但总是让我畅所欲言,真令人惊讶。就是这样,我们用来审核视频的内部政策有好几十页。
他继续解释说,那些模糊的语言“从根本上说给了我们回旋的余地”。在MegaTech,关于内容删除的内部政策会根据多方面的动态因素进行调整,包括面向所有用户的社区准则、内容创作者对于未经同意发布内容的删除请求,以及公司内部对社区准则的解释。审核员需要遵守这些解释,它们会经常变化。乔希解释说:“政策与社会氛围息息相关,如果某样事情在社会上变得可以接受,那么我们就会调整政策。政策还会根据全球的社会氛围进行调整。基本上,我们的政策都是为了保护某类特定的群体。”
事实上,虽然有政策和规则存在,但一些群体还是能够获得MegaTech的特殊对待,因为他们有利于MegaTech的商业利益。他们通常是较大的“合作伙伴”,作为内容创作者,他们能够为公司吸引大量用户,从而为自己和平台创造广告收益。马克斯介绍了这种关系:
如果你是个非常优秀的用户,你可以申请合作伙伴计划,这样可以从广告中赚取收益分成。合作伙伴可以直接联系安全与政策部门和法律支持部门。有时候我们会遇到一个合作伙伴的违规视频,通常来说我们应该删除视频并向他们的账号发出警告,(按照规则)警告三次无效,账号就会被封禁。但也许他们是重要的合作伙伴,公司不想封禁他们,所以我们会将视频发送给安全与政策部门,让他们去跟合作伙伴沟通。我得说得清楚一些:他们不会让这些视频留在平台上,他们会让合作伙伴撤下视频,并且会比政策页面更详细地说明这个视频违反了哪些规则。据我所知,我们从来都不会为了合作伙伴而破坏规则。顶多是处理方式更灵活一些,但不会做出实质性的让步,不会让令人反感的内容留在平台上。
平台上处于灰色地带的内容和行为是MegaTech公司商业性内容审核工作持续面临的挑战。马克斯介绍说,有一类内容使他特别苦恼,但它们又刚好没有违背公司内部政策的字面含义。他们花了很大工夫来处理和评估这类内容。
有个很复杂的问题,我几乎敢肯定现在它依然是个问题,那就是挑战视频(dare video)。发布者大多是10—15岁的女孩,少数是男孩。她们在父母不知情的情况下注册了MegaTech账号,并说:“我们很无聊,给我们一些挑战吧。”有些变态者就会找到她们说“给大家看看你的脚”,或者做一些色情行为,但孩子们不知道这些是跟色情有关的。这真是太瘆人了。有个人专门找出这类视频来举报,然后我们再把它们删除。这真是棒极了。我的意思是,我尽量不去这么想:就是他可能喜欢看这些视频,如果别人问他为什么整天看这些视频,他就可以用举报作为理由来掩饰。但事实是,由于这个人的举报,我们删除了成千上万条这样的视频。
乔希是MegaTech的合同工而非全职员工,这种身份上的差别在内部政策制定中会有一定的影响。级别更高的安全与政策团队和其他与审核相关的全职员工经常会表示,他们在制定未来政策或者对现有政策进行修改和微调时,会重视审核员们的意见。但乔希觉得这只是在嘴上说说而已。虽然他对于不良内容和MegaTech的内部政策有专业的见解,但却无力推动真正的改变,这让他感到沮丧。造成这种境况的直接原因是公司的商业性内容审核员是有固定期限的合同工。乔希说:“我所在的合同工团队只会存续一年,而其他团队是长期的。他们经常对我们说:‘你们对政策的话语权与我们不相上下。’这当然不是真的。我的意思是,我们的确能参与政策讨论,但没有任何能力去改变它们。”
乔希这种审核员所做的工作几乎完全是对内部政策的执行,并没有决定MegaTech平台政策的能力,为此他们感到沮丧。MegaTech公司也错失了一个机会,如果它能够寻求并重视内部审核员的反馈,就能够查明许多情况,比如地区性政治冲突、违规行为的新发展趋势,以及恶意用户对平台的狡猾操纵。但总体来说,它没有这样做。
MegaTech与国际外交:商业性内容审核的隐形外交政策职能
某些看似明显违反政策的视频往往会成为复杂决策过程的催化剂,在审核团队成员之间、在审核员和安全与政策部门之间引发激烈的争论。很多时候,决策不是严格按照视频内容做出的,还会考虑到视频的政治效果和宣传价值。那些从全球战乱地区上传的视频是最让团队感到棘手的,三位受访者都谈过这一点,这些视频在下班后还会一直萦绕在他们的脑海。
保留或者删除这些视频的决策会对现实世界造成很大的影响,因为MegaTech是全球主要的内容传播平台,创作者们希望在这里吸引人们对各类事情的关注,包括政治危机、冲突和战争罪行。因此,审核员和安全与政策团队成员在审核这类视频时会认真谨慎地做出决策。MegaTech对于哪些战场视频可以发布和传播是有政策性规定的,它甚至会规定哪些冲突算得上是合法“战争”,这些规定的影响力往往会超出两个团队最初的估计。处于冲突局势中的人们越来越依赖MegaTech的平台来记录和传播当地的危机信息,这是他们能够利用的为数不多的平台之一。MegaTech在这方面的影响力是有目共睹的。
这些内容看上去违反了MegaTech对于过度血腥、暴力和伤害儿童的内容的禁令,但是,安全与政策部门的全体全职员工(甚至可能是更高层级的员工)通常会在政策中规定一些例外的处理方式,有时候连审核员也无法了解公司的全部决策流程。对于与地缘政治冲突相关的用户生成内容,MegaTech的内部政策会根据全球事件和政治立场的变幻无常做出反应。显而易见,这些政策的制定在政治上是以美国为中心的,因此,选择保留或删除某些内容的过程,很容易会变成默许或公开支持美国外交政策的过程。乔希·桑托斯解释说:
不管你的承受能力有多强,有些内容还是会让你感到猝不及防。特别是现在仍在发生的叙利亚战争,我的意思是,你永远不知道接下来会看到什么。有一天,一枚炸弹在学校里炸死了20来个孩子,那个视频惨不忍睹,孩子们的尸体碎片到处都是。视频没有经过任何剪辑。我们试图帮助当地人记录他们的惨况,所以保留了这些视频。这些视频疯狂传播开来,因为它们非常暴力,非常有现实意义和话题性。我们会经常看到这种片段,让你觉得有些不舒服。
乔希很不解,为什么某些来自冲突地区的内容出于情报和宣传的原因被保留下来,而另一些却被删除了。难以影响政策制定的短期审核合同工,与负责制定政策但不参与日常审核工作的安全与政策部门的全职员工之间的权力差异再一次凸显出来。乔希说:
有一位安全与政策部门的员工对中东的任何危机都非常感兴趣,这没什么。但问题是,我们以非常弹性的方式对待中东的视频,却不需要以同样的态度对待其他国家的视频。这让我和另一位审核员感到不满。比方说,墨西哥正在发生毒品战争,两边阵营都有不少人上传战争视频,比如谋杀、绑架和讯问之类的。如果这些是叙利亚的视频,我们会保留它们,内容一模一样。我是说,原因不同,但内容是一样的,有冲突的双方,从各个方面来看都是一样的内容。但他们给我的理由是:这些内容不具有新闻价值。可这是毒品战争啊!同样,最近在一个非常小的偏僻地区发生了政变之类的事件,他们也说这个事件不够有新闻价值。给人的感觉是他们在执行双重标准。我认为唯一的原因是安全与政策部门的那位员工对中东事件特别感兴趣。
凯特琳也很难接受来自叙利亚的内容,但她觉得审核它们不会给自己带来长期的影响。她说:“我审核的大部分内容都是重复性的,我会想着,‘好吧,我知道这是什么,我已经看过了’。但总有一些千奇百怪的内容是你从来没有看过的。关于叙利亚的血腥图片有很多,非常可怕。但它们一闪而过,几秒钟就会消失。”事实上,审核员在MegaTech发挥了强大的编辑作用,尽管他们不太引人注目,缺乏影响内部内容政策的权力,终端用户也无法实质性地参与MegaTech有关用户生成内容的政策制定和处理过程,甚至不知道这种处理程序的存在。这意味着这种编辑角色和其他媒体环境中的编辑角色没有多少相似之处。此外,在很多时候,我们并不知道MegaTech的商业性内容审核员是否处在能够做出有效编辑决策的位置上,或者合适的环境中。
凯特琳便是如此。尽管她需要决定是否保留战场内容让数百万人看到,但她似乎并不太了解这些冲突的性质、冲突各方的情况和视频发布的后果。我问她,这份工作是否让她对以前不熟悉的国际冲突和事件有更多的了解,她回答说:“不完全是这样,我还得在工作之余多读一些相关内容。因为我们看到的都是原始材料,我不清楚到底发生了什么,只能够试着去理解。这些事情看上去很复杂,我绞尽脑汁,仍然觉得一头雾水。”
凯特琳不认为自己有足够的知识和能力去理解这些战场片段的背景和意义,但她仍然需要对它们进行审核和判断,所依靠的仅有公司的内部政策,以及安全与政策部门做出的额外规定。像乔希一样,她觉得处理这些内容的内部政策是有一些矛盾的。但在我们的访谈中,她承认自己没有足够的信息去理解和评价这些政策背后的逻辑,她只是单纯地遵守MegaTech的政策。
我们需要保留大部分(战场片段),几乎是全部吧,因为当地人需要通过我们的平台来展现这些事情。虽然它们同样会发生在其他国家,比如墨西哥的毒品战争之类的,但我们会删除墨西哥那些内容,我不知道这其中的原因。似乎我们在帮助叙利亚人发声。我们会对许多极其血腥的内容施加年龄限制。但有些内容只有尸体,没有流血之类的——这样的内容所有人都能看。搜索这些的大多是当地人,这些内容是阿拉伯语的,所以我不清楚在美国有多少阿拉伯人或者孩子会搜索这些内容,大部分人都不会看到它们。这让我对保留它们感到更加安心。
与此同时,对其他政治性内容的审核往往会重点考虑品牌管理和品牌保护的需求,通常由安全与政策部门和其他高层管理团队下达指令。在这些情况下,品牌管理不仅能使MegaTech免受批评,还能使它的合作伙伴和大批用户免受负面宣传的影响。在我们的访谈中,乔希将商业性内容审核的这个职能称为“公关”。
政策变化的速度相当慢,(安全与政策团队成员)实际上没有多少工作要做,他们每天都在搞一大堆的字词辩论,真正做出的改变却很少。他们看上去像是在做些事情,但并没有多少改变是由他们推动的。除非有某个明确的政策问题或者法律问题出现,比如我们在外国恐怖组织政策推出之前,一直是允许基地组织发布视频的。于是《纽约时报》就刊出一篇报道说:“啊,MegaTech正在帮助基地组织。”或者说:“MegaTech正在允许基地组织上传视频。”这立刻就成了一个公关问题,然后我们的政策团队说:“好吧,我们得制定相关的政策。”但大体上说,除非有相关的公关或者法律问题出现,否则我们的政策是不会改变的。政策团队的任务是保护MegaTech,所以我们会允许任何内容发布,除非它们会引发公关或法律问题。
在MegaTech,公关和品牌管理的问题与民主表达和政治宣传的争议纠缠在一起,彼此相互影响。但大部分试图利用MegaTech平台影响力进行宣传的用户,都没能真正理解内容发布决策流程的影响,这些影响主要是通过MegaTech的品牌保护需求来评估的。由于MegaTech广泛流行、易于使用,全球用户仍然会把血腥内容上传到这里,希望寻求支持或者在战争冲突中宣传某个党派和团体,他们找不到其他普及、易用、同等规模的平台来发布这些内容。此外,政府和其他各方对于控制互联网访问有着浓厚的兴趣,这是它们控制冲突、民意和社会的重要环节。因此,MegaTech无疑还会继续在这些地区发挥巨大的作用,因为它能够允许或禁止某些内容发布。
这是一种复杂且纠结的关系。MegaTech的内部政策似乎有利于那些在危机中寻求发声渠道的人,他们希望获得全世界的支持,引发人们对他们所遭受苦难的愤慨。但必须指出的是,MegaTech所拥护的对象并不是他们。尽管公司里有人试图支持这些寻求帮助和宣传的内容,就像安全与政策部门的那位员工一样,但乔希和凯特琳觉得他们在处理类似的内容时没有一视同仁地应用政策。当这样一个商业性、追逐利润的平台采用民主的方式对待信息传播时,它所拥护的对象和目的会比较混乱,这必然会妨碍它与股东和政府保持积极的关系。然而,在这样一个数字围场(digital enclosure)的时代,这样一个表达空间被广泛商业化的时代,我不清楚人们是否还能找到其他渠道来表达异议。
“低垂的果实”:MegaTech和全球商业性内容审核外包
当马克斯·布林刚进入MegaTech的时候,将商业性内容审核外包给世界其他地方和其他类型的工作场所似乎是很难想象的。马克斯解释了他对这种做法的反对:
你知道吗?外包一般是非常混乱的。对于我们审核的这种内容来说,我觉得不能外包出去,因为按照这些公司制定的薪酬标准,只有在印度和菲律宾等地才能找到人来干……而那边的文化截然不同,你无法推行以美国和西欧文化为基础的审核政策。在我入职之前,他们尝试过将工作外包到印度,那真是一场灾难,他们只能停止外包,还是全部安排内部员工来完成……(印度的合同工)会删除那些和家人一起在沙滩上穿比基尼的照片,因为这不符合当地的风俗习惯。如果只说为西方网站进行的内容审核,这种外包工作的薪酬算是非常低的,我无法想象那些员工拿着比我还低的薪水来做这种工作。他们给我的薪酬不算太可怜,但我还是觉得很低。这是我们仅有的报酬,还没有福利。这种外包工作是非常辛苦的,也很残忍。
尽管马克斯认为将工作外包到印度或者其他地方会给MegaTech带来很多麻烦,但一年后公司还是采取了这个策略。它依然保留了内部的审核团队,但同时也在世界其他地方部署了呼叫中心/业务流程外包团队来进行协助,并将审核工作分成低级的和高级的部分。对于外包,乔希·桑托斯指出了一个更令人沮丧的问题:它会损害内部合同工的工作数据和绩效指标。他解释说:
我入职大约四个月之后,我们将所谓“低垂的果实”——比较容易审核的视频全部外包了出去,包括垃圾视频和色情视频。这些视频都是一眼就能分辨的,你根本不需要点开看。而那些仇恨言论和直播剪辑就不同,比如说,这个视频有15分钟,里面在讲“犹太人控制了什么什么”之类的,你没法知道这个人接下来会讲什么,只能把视频看上一遍,才能知道视频里讲的是不是仇恨言论、是不是阴谋论。如果它们是色情视频和垃圾视频,你一眼就能看出来。我们以前审核的大部分内容都是垃圾视频和色情视频,大约占全部视频的60%到70%,但后来这些视频全部交给了印度团队来处理。所以在那之后,我们审核的视频数量少了一半以上,这毁了我们的工作考核指标,因为我们的工作表现是根据审核视频的数量来衡量的。忽然间我们就需要找出一个新指标来衡量审核员的能力,因为我们不再有那些“低垂的果实”,能够审核的视频数量大大减少了。
乔希和马克斯有同样的担忧,他担忧将商业性内容审核工作外包到世界其他地方会导致审核工作的质量下降。他和马克斯的描述都凸显了跨国合作中固有的紧张关系,这些外包团队来自世界上的不同地区,具有不同的文化、社会和语言背景。乔希说:
(管理层)所做的就是将队列分开。以前,所有内容都在同一个队列里,现在又分出了色情内容和垃圾内容两个队列,主要由印度团队来处理。我们也可以处理这些队列,但这样一来印度团队就没事干了,因为我们很快就能把它们处理完。我不明白他们为什么没有像培训我们那样对印度团队进行全面的培训,我真是不太理解。印度团队处理队列的速度就是会比我们慢一点。我不明白他们为什么不对印度团队进行培训……搞不清楚,也许是他们还不太有把握让印度团队来参与政策制定。我的意思是,这里面有很多原因。印度团队是全新的团队,与我们有文化差异。你可以注意到,印度团队删除了很多应该保留的内容,保留了很多应该删除的内容。某些文化差异是确实存在的。
“社群”的本质,线上和线下
梅琳达在各种在线网站和社交媒体平台上做过很长一段时间的志愿审核员,这使她能够将商业性内容审核工作和志愿审核工作进行比较,这是一种有趣的对比。她指出,相较其他在线空间而言,YouNews的审核工作缺乏职权和控制力,在遇到问题时,她不知道要在哪里获得资源和支持,也不知道如何将问题提交给上级处理。她也强调了在线社群的本质,比如DearDiary的“质疑白人至上”(Questioning Whiteness)论坛,参与者将自己看作社群的一分子,发表的内容会经过严格审核,有非常清晰的规则,所有发言者都要遵守。事实上,梅琳达觉得在YouNews的环境下使用“社群”的概念是带有误导性的。她认为YouNews的论坛不像是一个社群,而更像是一个相互攻击、恶语相向的地方,这正好是她理解的“社群”的反面。
我在我管理的DearDiary社群里拥有很大的职权,它们都是自发的社群,有清晰明了、字句分明的社群规则,你必须同意这些规则……我们实际上要处理一些棘手的问题,我和别人一起管理“质疑白人至上”论坛,审核员之间会反复讨论。有个人假装自己是黑人女性,其实他是一个中年白人男子。真是活见鬼!我们只能修改规则说:“如果你不是黑人,就不能假装自己是黑人。”我不敢相信我们居然要加上这条规则,你能明白吗?但事实就是这样!所以当有事情发生的时候,我们就会修改规则。我们有一些资源,所以如果某个人被警告了,我们就能给他看看他违规的地方,让他知道未来应该如何避免这种情况。这是个封闭的社群,大部分成员都在这里活动了很长时间,他们花费了很多心血来阻止有害内容生根发芽。虽然有时候会适得其反,但一般而言,如果有人说了出格的话,社群成员就会发言,并且联系我们说:“你能不能解决这件事,或者处理一下这个人……”我在这里得到的授权和代理权要更多,成员们的主动性也更高。我的意思是,他们出现在这里是因为他们想成为其中的一员,这个社群有一个很具体的主题,就是呼吁白人从种族主义中吸取教训。
梅琳达在YouNews从事审核工作的效果使她怀疑,像这样的综合性在线论坛到底能不能促进人们之间的对话和理解。事实上,她觉得YouNews反而起了相反的作用,像这样的论坛和在线空间不仅毫无益处,还会造成破坏性的影响。
你可以看看YouNews上面那些普通猫味文章底下的评论,你看不到那些人对社群的认同,你看不到他们对社群的建设。他们只是在丢人现眼,说“N”开头的那个单词,引用经文骂“死基佬”。你知道吧?他们没有为文明发言和真正的对话做出任何贡献。Huffington Post这种地方没那么严重,那里会有一些约束措施,点开用户的小头像,你可以看到那个人发表的其他评论。我觉得Shakespeare's Sister和Jezebel这两个社群的自我管理机制很有趣,它们会根据用户的行为好坏给予奖赏或惩罚。用户可以通过点赞和点踩让恶意内容沉下去。在YouNews这种地方根本没有这样的机制。你唯一能做的就是点击举报,投诉它是侮辱性内容或者表示反对。就是这样,点击。
这些经历给她在线上和线下的人际交往蒙上了一层阴影:
我觉得我的沮丧和孤立感很大程度上来源于这份工作。我以前在认识新朋友的时候,会假定他们没有恶意,但现在我对别人的态度不像以前那么乐观了。你能懂吗?当身处公共场合或者遇到朋友的朋友,我会比以前更加敏感,觉得他们可能会在心里咒骂我。如果知道我的各种身份,他们可能会笑着和我握手,同时希望我下地狱。
最后,梅琳达对综合性论坛的作用提出了质疑,她觉得它们永远不会起好的作用,相反,它们总是会把那些脏话连篇的喷子吸引过来。梅琳达与乔希·桑托斯和里克·赖利的见解一致,认为这些论坛本身就导致了她审核的这些负面内容的产生。
我真心觉得有90%的在线论坛用户并不想进行任何对话。他们就没这个想法。他们只想把心里的话喷出来。如果被骂得狗血淋头,他们会兴高采烈地继续喷下去。我觉得在现实中他们不会这样说话,因为如果在现实中也是这样,就会有人会拿着一块肥皂追着他们打。我知道很多人都有这样的想法,觉得在这些论坛里可以想说什么就说什么。但我认为那些话就是他们真正的想法。丑恶的人就是这么多。
梅琳达以职业审核员的身份参与到在线新闻论坛中,因此她面临着一个艰难的抉择。如果允许人们在这些空间里自由发言,网站上就会充斥着各种辱骂和仇恨言论、与主题无关的评论和垃圾内容;如果对这些空间进行严格的监督和审核,虽然会侵犯人们的自由表达权,但可以使大多数访客正常使用网站。显然,梅琳达倾向于后者,但令她失望的是,雇佣她从事商业性内容审核工作的论坛无一例外地都倾向于前者。归根结底,梅琳达在YouNews的任务是保护和管理品牌,她在访谈最后也强调了这一点。她主张人们应该关闭社交媒体网站上的这类评论区和论坛。果不其然,在接下来的几年里,包括《大众科学》(Popular Science)、《高等教育纪事报》(The Chronicle of Higher Education)在内的许多大型在线媒体网站纷纷采取行动,对内容发布流程进行了大幅整改,加入了强制性的审核环节。
的确,威斯康星大学2014年的一项研究表明(《纽约时报》关于《大众科学》网站关闭评论区的文章中也提到),如果读者看到了新闻报道底下的负面评论,他们会更有可能对这篇报道本身产生负面的印象。
梅琳达简单地总结道:“人类太可怕了!(笑)讲起这些事情,我仿佛又回到了从前的日子。如果你拥有一个网站,而且找不出一个很好的理由来设立论坛,那就不要设立。它的风险很大,会出现很多负面言论,对你的品牌没有任何好处,还会伤害他人。所以不要设立它。”
走到有光亮的地方来
一般来说,给读者留下一连串问题是不妥当的,但对我这样的研究者来说,这样做有一个重要的作用,就是摆出这些问题,让它们指引我未来的研究方向,将它们作为我跟踪商业性内容审核及其全球从业者、进出他们所在的数字空间和物理空间的线索。但别忘了这个事实:我们都身在其中,那些登录Facebook、上传内容、在新闻下面评论、给帖子点赞和点踩的人,就是我们。作为人类,我们渴望获得参与感和融入感,这种渴望创造了由商业性内容审核员来填补的商机,他们满足了我们的需求。我常常会想起乔希·桑托斯,他敏锐地发现了MegaTech上自杀倾向的问题,而这种倾向毫无疑问会自我延续下去,看不到解决的办法。如果公司搭建了那些平台——那些准备好被填满、被重新命名、在全球网络上传播的空容器,我们就会蜂拥而至。我们会把我们的用户生成内容、偏好、行为、人口特征和欲望填充在里面。我们与商业性内容审核的联系甚至比与平台更加直接,毕竟触发MegaTech商业性内容审核流程的就是举报视频的用户。就像第二章说过的,Facebook的用户举报会触发帖子和图片的审核流程。审核的对象也是用户生成的内容。除非我们离开平台或者与平台重新商讨双方的关系,否则作为用户的我们也许才是社交媒体生产周期中最关键的部分,因为我们是内容的生产者,也是永不餍足的消费者。商业性内容审核员使平台变得舒适有趣,他们是我们看不见的合作伙伴,和我们有着共生的关系,类似于阴和阳。他们对内容进行平衡和展示,努力让我们在网络活动中感到轻松愉悦,让我们流连忘返。我们可以点赞、举报、分享视频,但是,我们的参与是一种自由意志的假象,我们正处于一系列不断缩小、不断分隔的封闭空间中,这些空间受到社群规则和服务条款的约束,其中的人工干预被保密协议所隐藏,人为痕迹一旦显露出来,就会被当做系统中的异常错误而被清除。这本书跟人类活动相比虽然微不足道,但我希望它能够将这些人为痕迹发掘出来。
商业性内容审核员的工作条件有可能得到改善吗?在计算能力和计算机视觉产生飞跃式发展之前,在可预见的未来,审核工作仍然需要人类介入。即使到了那个时候,人力劳动可能仍然是首选,它会沿着全球化的轨迹,转移到拥有大量廉价劳动力资源的地方。商业性内容审核员对每条用户生成内容都要做出一系列决策,其复杂程度是任何算法和过滤器都难以完成的。文化上的细微差别和语言上的特殊性更是加大了这种难度。人类大脑是无与伦比的超级计算机,储存着海量的文化知识和生活经验数据,而我们的思维相当于复杂的意义识别软件,因此人类员工在成本和能力上仍然优于任何机器。承载用户生成内容的社交媒体平台没有显示出任何即将消失的迹象,反而随着移动设备的普及和全球联网人数的增加而继续发展。人性也不太可能发生什么改变。所以,乔希、马克斯、梅琳达、索菲娅、德雷克、里克等人从事的这项工作不会消失,商业性内容审核的需求也将继续存在。这种工作的地位很低,经常会被种种方式所掩盖,它还会使员工接触到人性阴暗龌龊的一面,几乎肯定会导致精神上的损害,但还是会有人愿意从事这种工作。我要感谢所有从事这份工作的商业性内容审核员,因为我很庆幸做这些工作的不是自己。我希望他们可以离开阴影处,从屏幕后面走出来,走到有光亮的地方来。
责任编辑:杨小舟
图片编辑:张颖
来源:澎湃新闻 原标题:硅谷互联网公司如何审核用户生成内容
|