算法没那么管用,扎克伯格要组建 7500 人团队审查社交网络 | 好奇心小数据_智能_好奇心日报

谢若含2017-05-04 18:54:32

这还没进中国呢。

扎克伯格今天发帖说,Facebook 准备再招 3000 名内容审查员。

说是“再”招,是因为原本这个岗位已经有 4500 位工作人员了。

招新之后,Facebook 将会有 7500 名员工,全天不间断地对平台上的内容进行审查。这些员工当然不是 Facebook 的正式员工了,虽然没有公布比例,但有大部分人来自于外包公司。

目前,Facebook 员工总数为 18770 人。一个 7500 人的审查团队,相当它总人数的 41%。

目前只有 Facebook 公开了平台上审查员的人数,大多数科技公司都对此闭口不谈。但根据此前一份报告,全球约有 10 万人以上为不同的平台提供内容审查服务。

审查员都是谁,主要都做什么?

简单来说,每天八小时的工作都是过滤社交媒体上的不恰当内容,例如恋童癖、身体暴露照片、种族仇恨言论、杀人直播……

虽然理论上他们也是为一线科技公司工作的人,但这些审查员的薪水可不一定高。很多人是海外的自由职业者。

根据全美最大的自由职业平台 Upwork 所提供的数字,目前在线的 1371 名海外外包的内容审查员里,大多数人收入每小时 10 美元不到。

如果是美国国内,YouTube 审查员的时薪大约在 20 美元,虽然没有麦当劳的 12 美元这么低,但也没有到美国人均小时收入的中位数 26 美元。

一位曾为 Google 提供外包服务的员工表示,每天他需要查看 1.5 万张涉及色情、血腥、和暴力的内容。

这些内容由用户发现并举报后进入 Google 的审查系统,而后由审查员介入判断是否违规。Facebook 也是类似的流程。

他与 Google 签了一年的合同,并非全职员工,但工作 9 个月后,这名审查员因为每天接触的极端内容,患上了心理疾病。

因为待遇一般,只有一个“给科技公司工作”的经历,美国大部分审查员都是大学刚刚毕业,或仍在念大学的年轻人。

国内情况也类似。路透社在一次对新浪微博审查员的调查中发现,绝大多数审查员的年纪在 20 出头,每天他们需要工作 12 小时,每小时阅读 3000 多条微博。新浪微博一开始也会采用电子系统自动对每条微博进行扫描,但只能解决很小一部分的内容,大部分还是审查员进行逐条审核,再决定是否删除。

2013 年,位于天津的微博审查员每月的薪酬是 3000 元,当时一共有 150 名员工在对微博每天的内容进行过滤。

为什么要雇这么多人?说好的人工智能算法呢?

审查员人数调整来自近期在 Facebook 最近的一系列暴力视频事件。

4 月 15 日,一位叫自美国俄亥俄州克利夫兰的中年男子史蒂文森在街上随机杀害了一名 74 岁的老人,并将这个过程在 Facebook Live 上进行直播。这条杀人视频在举报 3 个小时之后,才被 Facebook 撤下。

不到半个月时间内,一名泰国男子又在 Facebook Live 直播了杀女随后自杀的视频,它在网上传播了 24 小时。最后还是因为有用户举报,所以审查员才发现视频,并且撤下。

这些带有极端暴力色彩的直播将 Facebook 推向了舆论的风口浪尖。

根据华尔街日报的统计,过去一年来,共有 60 起和暴力相关的直播在 Facebook Live 上进行传播。每一次 Facebook Live 获得网络热议都与暴力视频的广泛传播有关。

Facebook 的 CEO 扎克伯格最近也不再谈直播是给家人朋友联系的美好工具,他在帖子中说到:“过去几周在 Facebook 上播出的人们自残和伤害他人的视频令人心痛。” 并强调了将提高平台的审查效率,“若要建立一个安全的社区,Facebook 需要做出迅速的反应。”

但雇佣 7500 个人来进行视频、图片审核,看起来是不得已的选择——也说明了这个世界上最强调人工智能的科技公司,目前也没办法通过算法来搞定视频审查这件事。

The Social Skinny 的数据统计,每天 Facebook 上将产生 47.5 亿条分享内容、上传 3 亿张图片,同时在平台上传播的视频和直播内容总共有 320 亿次观看量。

要对海量内容进行把控不是一件容易的事情,尤其是没有任何规律可言的暴力视频内容、直播内容。

过去 Facebook 的审核流程依靠用户互相举报。用户可以将看到的帖子标记为骚扰信息、仇恨言论、垃圾内容、露骨色情、暴力行为。

Facebook 外包的审查员将用户举报的内容进行检查,确定违反规定的将直接删除。

如果情节严重或重要程度高,审查员需要将内容送到位于加州总部的上一级进行裁决,在确定违反规定之后才能进行删除。

大部分内容在 72 小时内能够得到审查。但这也足以让类似杀人直播这样的恶性视频内容在互联网上进行发酵和传播。

在人工审查之外,Facebook 还开发了一套能自动识别内容的人工智能,用于对视频的直播内容进行监测。这套智能系统将自动对平台上的画面进行识别与标注,涉及黄色、暴力或者自杀类别的视频内容将被标记。类似的技术在 YouTube 等视频平台早有应用。

但这个技术存在局限。对于色情内容来说,机器可能会简单地通过裸露的皮肤来进行判断是否违规,但这个可能会让一些具有历史意义和艺术性的图片也躺枪。Facebook 就曾删除过一张著名的越战新闻照片——一位小女孩遭到汽油弹炸伤、浑身赤裸奔跑的照片。

对于自杀这样没有固定模式的直播内容机器就更难准确区分了,最后决定权依然要交到人的手里。

智能系统的开发者也表示,它还需要计算机视觉识别的算法足够快才能保证将不合规的内容及时删除。

当然,这 7500 人只是 Facebook 今天需要的人手。如果哪一天它真进了中国,那可能就远远不够了。


题图来自 Wired

喜欢这篇文章?去 App 商店搜 好奇心日报 ,每天看点不一样的。