这个互联网上最「脏」的工作,为什么无法消失?

作者:吴志琦在柏林一间不起眼的办公室里,600名员工像一台冰冷的机器,盯着屏幕,经常点击鼠标,却在做一件影响全世界20亿人的事情。每天有数以亿计的帖子以100多种语言发布。我们应该保存什么?什么应该立即删除?他们是Facebook的版主,几乎每10秒钟就做出一个决定。

Vice调查了Facebook审计师的工作环境。照片:Max Hoppenstedt这个群体中的大多数人实际上并不了解他们。他们不是一个不可估量的暗网,也不是与互联网用户亲近的地方,但加州大学教授莎拉·T。Roberts写了一本书《Behind the Screen》社交媒体最黑暗的一面不是互联网用户的屏幕,而是在内容管理员的眼前。

每天25,000条内容背后的“网络拾荒者”截图您好,您发布的 ** 因包含违反相关法律法规法规的内容而被删除。当你在微博、B站或豆瓣上发布的内容没有通过审查或突然被删除时,你的内容审核员就在工作。国内外领先的互联网公司每年都在招聘这个职位,仅Facebook就在全球拥有超过20,000名版主。这似乎是一个永远缺失的职业。

[第1003号]

在互联网的早期,它是一个分散的网络,将数十亿网站和社区中的人们连接起来,但随着互联网变得越来越“企业化”,Facebook,YouTube,Instagram......内容管理员出现并开始监控各自的网站。简而言之,内容管理员是删除互联网上可疑内容的人。但它给人的第一印象一般是“刚勇”。

“Ganghuang”是正确的,但这是工作的一部分,许多人认为这是一个额外的好处,但它并不像人们想象的那么容易。在The Network Scavener的纪录片中,Facebook的内容审核员每天要处理25,000个指标。而这些内容中都是儿童色情、恐怖、自害虐杀、极端派组织言。。。。他们的任务是将我们所能看到的世界上最肮脏和最令人讨厌的信息切断。

图片来源:《网络拾荒者》截图刺激、压迫、愤怒、冷漠、道德谴责.....。情绪混合在一起,刷新感官,挑战耐心的极限。但这不是过山车,可以回到地面,每一位新员工都应该在车里,从原来的刺激变成慢慢麻木的习惯。要做这份工作,你必须是一个坚强的人,并且非常了解自己。

根据《网络拾荒者》和国内互联网企业员工的描述,他们的日常工作大多数时候都是重复的,除了一些极端的情况,甚至有些无聊:单一的工作环境。整天盯着屏幕看,白天和黑夜。从数以千计的自拍、度假照片和肮脏视频中搜索黄色和政治相关的内容,以及出售赌博、高利贷、枪支和毒品的帖子中的一小部分。删除它,再看一遍,再看一遍。

这是越南战争的著名照片,但被删除,以捍卫平均工资高于最低工资的未成年人的裸照。内容审查规则非常模糊,而且经常会发生变化。大多数都是建立在既定模式和长期经验的基础上的,但有时候你会看到老板的命令,有时候你会看到老板的命令。每个月都有人来,有人离开,公司永远不会留下来。只是因为一群普通人突然接触到了禁忌的世界,往往导致血腥残酷内容的压力也越来越大,累积到一定的门槛,堤坝开始崩塌。在2017年的Facebook集体诉讼中,Facebook声称数千名内容审查人员在工作中遭受了严重的心理伤害,并发展了创伤后应激障碍,“睡眠中的微小声音让人产生了车祸的错觉”。

但这是一项不可或缺的重要工作。网络拾荒者是互联网安全的守护者,如果他们不清理被禁止的内容,阻止非法信息,更多的青少年和儿童将看到它。像谷歌和Facebook这样的大公司为主持人提供心理健康咨询和筛查,但他们承认内容主持人是科技行业最具创伤性的工作之一。

那么,是否有可能以一种更好的方式解决这种“悲伤的职业”,或者人类甚至有可能停止这样的工作?事实上,当前的内容审查只能由人类进行-猫和老鼠游戏。然而,好的一面是,已经有了人工智能来帮助它提前摧毁“蛇和老鼠的巢穴”。由于互联网企业审核员的反复投诉和抗议,互联网用户上传容量不断增加,头平台每天生成的教资会内容量达到天文数字,人力投入昂贵且难以扩展,几乎所有企业都采用“人+机”内容审核方式。

雅虎开源了一套深度学习神经网络,可以对NSFW图像进行评估(不适合/安全工作)可以给出值,最无害的是0,最极端的是国内最早使用AI技术的内容审核服务之一,对色情、暴力、粗俗、欺诈等内容,识别率达到99%,可降低人工审核成本90%以上。在人机联合审计中,人工智能首先执行大规模内容审计的第一阶段,区分正常内容、识别不良内容和不清晰内容,对帖子进行分类和分配,然后由审计员手动审查“不清晰内容”。这将使人工智能减轻内容审查人员的负担,使他们能够更有效地做出决策,并专注于数据分析。

然而,人工智能取代人类劳动力仍然像《阿拉伯之夜》。人工智能技术的发展越来越快,但由于自然语言处理(NLP)的难度,机器在理解语言上无法达到人类的思维,因此文字的审查也会出错。更不用说图像、音频和视频了。深度学习的局限性在于,要创建能够准确检测成人内容的神经网络,首先需要在数百万条带注释的成人内容上训练人工智能。如果没有高质量的训练数据,人工智能很容易出错。

人工智能擅长识别色情、垃圾邮件和虚假账户,但由于审查太多,类别太多,界限模糊。人工智能识别的违禁图像中有无数加菲猫,这些都可能被误认为是违禁内容,包括女性母乳喂养、月经艺术、战争暴行等。毕竟,机器是由人类“喂养”的,所以现在的机器主要是辅助工作,不能思考或判断有价值的“禁止内容”。例如,检测仇恨言论和骚扰的准确性很低,我们认为Facebook需要5到10年的时间来开发出能够检测仇恨言论的人工智能。

▲图片:Michelle Thompson Tup Technology执行长李明强在接受爱迷采访时也表示。必须认识到的事实是,人工智能仍处于弱人工智能阶段,人工智能具有自主学习和独立思考的能力,达到人类理性和情感判断的阶段,即强人工智能,有可能取代人类劳动力。因此,内容审核员在未来很长一段时间内都不会消失。在这个漫长的未来中,我们可以预见信息的传播会增加,图像和视频风格的演变,人工智能技术的升级,内容审核员将继续被要求以更高的标准审查细微差别和禁止内容。

CONTENTBOT.NET只是未来,网络环境也不一定是“绿色健康”的。就像在线黄恐与内容版主无法消失一样,黄恐可能永远在网上“生存”。现在,言论自由比以往任何时候都更容易,每个人都有自己的声音,但这种自由属于所有人,很难保证他人的自由不会伤害自己。

与此同时,随着互联网内容行业竞争进入下半场,流量之战也越来越激烈。每个平台的内容版主不仅要删除违禁内容,还要有意识地只发布对平台有益的内容,创造自己的平台自己的品牌风格,这是一种品牌保护。然而,所有平台都有一个共同点:这就需要用户的注意。为了让用户继续上瘾,这些公司将使用更精确的数据算法和人类的选择,让人们在平台上停留更长时间,让人们想要看到更多,但是:黄色、暴力和恐惧是人类的欲望。在一个接一个的互联网热点中,我们可以看到,人类的本能总是更新底线,喜欢挑战禁忌,煽动异议,制造愤怒的内容,但社交平台却希望保持一个绿色、健康、明亮、明亮的环境。这是一个我们永远无法解决的矛盾。

在这样的对抗下,各大平台似乎只会找到稳定。对于网民来说,我们看到的内容是选择性的、定制的,无法辨认出深刻而丑陋的真相,但更重要的是,在任何情况下,都有批判和思考的能力。底线的欺凌、犯罪、羞辱和反弹在整个网络中蔓延,好处总是大于伤害,而不是在源头上扑灭灾难的火焰。内容版主不会消失,“黄恐”也不会消失。它可以使技术更先进,规则更清晰。否则,互联网可能会走向一个无法逆转的极端。

图片来源:TIN VARSAVSKY/FLICKR但是,正如扎克伯格在新闻发布会上所说,在任何情况下,对我们来说最重要的是:我们需要勇气,选择希望而不是恐惧,坚持我们可以让世界变得更美好。我们必须保持乐观,因为这种希望和乐观已经带来了巨大的进步,更重要的是,我们将共同努力。毕竟,与现实的深渊相比,内容审查人员看到的残酷只是冰山一角。

返回列表
上一篇:
下一篇:

文章评论