展会信息港展会大全

Facebook内容审核高管:杜绝不良内容,目前要靠人力而不是机器
来源:互联网   发布日期:2018-02-23   浏览:41次  

导读:《大西洋月刊》的作者 Alexis C. Madrigal 同内容审核专家及 Facebook 的高管会谈,该高管罕见地审视了 Facebook 的政策相关工作。本文原题 Inside Facebooks Fast-Growing Content-Moderation Effort,2 月 7 日发表于《大西洋月刊》网站。 Mo ......

《大西洋月刊》的作者 Alexis C. Madrigal 同内容审核专家及 Facebook 的高管会谈,该高管罕见地审视了 Facebook 的政策相关工作。本文原题 Inside Facebook's Fast-Growing Content-Moderation Effort,2 月 7 日发表于《大西洋月刊》网站。

Facebook内容审核高管:杜绝不良内容,目前要靠人力而不是机器

Monika Bickert 为人严肃,令人印象深刻。她拥有哈佛大学的法律学位,在成为 Facebook 全球政策的负责人之前,出任助理检察官一职,主要负责处理腐败的政府官员。

在 2 月 2 日圣克拉拉大学法学院的一次会议中,Bickert 特地对 Facebook 的内容管理团队做了详细的介绍。该会议是由学校的高科技法协会的负责人 Eric Goldman 组织的。

Bickert 强调了内容审查对人类的必要性。她说,Facebook 目前在全球拥有 7500 个内容审查员,实现了马克 扎克伯格在 2017 年 5 月定下的目标,那时候公司只有 4500 名内容审查员。换句话说,他们的审查员数目在过去八个月里几乎增加了一倍,大约等于 Twitter 或 Snapchat 的员工总数。

而且那些人还大都不是硅谷出身的。

雇佣内容审查员的基本考量是语言,而且他们也具备某种特定的专业知识。他们被雇佣进公司后先是熟悉相关政策,然后慢慢才学习某一领域的专业知识 ,她说, 审查小组的结构是这样的,我们可以提供全球 7 天 24 小时的全覆盖。这意味着我们会在都柏林雇佣一位缅甸人,或者想出其他的人员和语言配备,这样就可以在 24 小时内对内容进行审查或回复。这就是我们的目标,但并不总是成功。

内容审查、社交媒体的政治化

随着社交媒体成为文化和政治的战场,内容审查已经成为 Facebook 一个最为紧迫的话题。圣克拉拉会议于去年年底在加州大学洛杉矶分校举行,会议的重点是处理 人类基本的粗鲁行为 。互联网公司已经代替了传统意义上政府的角色,开始对公众在虚拟空间内发表的言论进行管理,尽管他们都很难做到公平。除了 Facebook 之外,Google、Pinterest、Reddit、Yelp 以及其他许多公司的代表也在会上发表了讲话。

为了让人们有一个直观的了解,Google 的 Nora Puckett 说,该公司的整个安全团队有 1 万人,但其中包括的人远远不止内容审查者。另一方面,Pinterest 的 Adelin Cai 则表示,针对其 2 亿用户的内容审查团队仅有 11 名全职人员。

在 Facebook,有 60 个人专门为公司的内容审查制定政策。这些政策不是你在 Facebook 的服务条款或社区标准中读到的。这是一套专门为内容审查员制定的深层次的、非常具体的操作指令,每两个星期由 Bickert 的团队进行审核和评价,并在内部会议上公布。例如在《卫报》中曾曝光的一项规定指出,虽然 Facebook 上发裸体照片一般都是 禁止的 ,但在历史大屠杀照片的背景下显示成人裸体却不在此列。

每周我们都会更新这些政策,不过有时只是微调而已。 Bickert 说。

而在每两周的内容评审会议上,公司上下的不同团队 包括工程、法律、内容审查人员、外部合作伙伴如非营利组织 都向 Bickert 的团队提供政策建议,Bickert 称之为 迷你立法会议 。

她的同事 Neil Potts 后来也发表了讲话,同样强调了 Facebook 和政府之间的相似之处。他说: 我们确实在某些方面与政府有共同的目标。如果政府的目标是保护他们的选民,也就是我们的用户和社区,那我认为我们应该助其一臂之力。

对于内容审查的标准规定的如此详细的原因是,Facebook 希望减少内容审查员所做决定的偏差。

我们试图确保标准足够细致,这样就不会给审查人员留下太多的解释空间 ,Bickert 表示, 我们知道人们可能会持有异见。审查人员对裸露的水平或者暴力的程度也有自己不同的看法。或者是不是应该确定一些禁忌词汇?构成种族歧视有什么标准?我们有非常具体的指导,所以审查人员不管是在菲律宾,还是在印度或者德州,他们都会做出同样的决定。

为了达到这样的目标,公司对所有审查员的工作也进行了持续的审核,已确定 如果这个人是不是我们需要的,或者这个人的审查决定是不是达到了我们政策的要求。

但过于具体也可能成为这些规则的弱点。 我们总会碰到这种情况 你看到一个什么东西的时候,从技术上来说其实不构成违背仇恨言论的标准,但是当你看到它的时候,其实你会不由自主地确定这其实就是在煽点仇恨和矛盾,制造对立与冲突 ,Bickert 表示, 所以这些东西其实打了擦边球,所以我们必须要细化这些标准,这样才能更好地控制偏见。

技术、人工智能和审查

Bickert 在演讲中揭露的一则轶事似乎表明,Facebook 并不总是像现在这样认真对待内容审查。当 Facebook 推出直播时,他们必须通过技术工具查看有没有哪一部分具有倾向性。所以,如果一个 Facebook Live 视频长达两个小时,评论者就不得不试着弄清楚有哪些令人反感的内容。

内容审查员审查视频的工具最终被证明它不是我们所需要的 ,Bickert 表示, 它没有在审查视频方面给予审查员足够的灵活性。

审查的引入反映了时代风向的转变,扎克伯格已经不是 2015 年的扎克伯格了,那时的他是一个纯粹的工程师,而非社区建设者。

在过去一年半的时间里,Facebook 似乎确实在内容审查方面倾注良多,尽管该公司有能力克服竞争和平台转变等问题,但内容审查仍旧是一块烫手山芋。这类问题并不像技术方面的挑战那样通过投入大量的工程师就可以解决。

我们经常被人问说:人工智能什么时候才能拯救我们所有人? Bickert 说, 但我们还有很长的路要走。

当前的机器学习技术不善于考虑特定的职位、用户或社区组织的背景。因为这不是这些工具的工作原理,所以尽管我们看到其他领域的发展突飞猛进,但这一领域的发展还任重道远。

有些领域的技术工具正在帮助我们完成审查工作 ,Bickert 说。 但对绝大多数人,当我们看到仇恨言论,或者恃强凌弱,或者恶意骚扰的时候,要知道还有人也在看着它,这个人试图弄明白线下世界发生了什么,以及它在网络上是如何表现出来的。

编译组出品。编辑:郝鹏程

赞助本站

人工智能实验室

相关热词:

下一篇:没有了...
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港