国际新闻
当前位置: 首页» 人权新闻» 国际新闻
国际新闻

AI 维护社群和平?脸书办记者会解释 AI 如何左右内容审查

时间:2020-11-19 来源: 作者:

 

AI 帮助人类团队进行自动审查,以及建立起审查的优先排序,让团队可以更加快速进行决策。

 

脸书于昨日(17 日)下午发布「Facebook 运用 AI 执行社群守则」在线记者会,邀请来自 Community Integrity 部门的工程师  Chris Palow 与产品经理 Ryan Barnes,针对 AI 如何被应用且执行社群守则,以及影响内容审查、算法的议题,做出说明与解释。

 

脸书如何使用 AI

工程师 Palow 首要说明 AI 如何被应用。首先,工程部门会先将有害的内容(即需要被审查出的内容)与正常的一般内容,同时喂给机器学习,让机器学会去分辨哪些社群内容是违反规范的,并且使之自动贴上卷标,提供一份列表给人类团队做进一步的分析,看是否真的有问题。

 

 

「虽然没有百分之百的正确率,但目前为止团队觉得都还蛮准确的。」Palow 坦率地说。

 

脸书的内容审查架构

脸书总共有三个部分一起协力推动平台安全:内容政策组(content policy)、社群诚信组(community integrity)、全球营运组(global operation)。内容政策组负责制定社群规范,邀请各个领域、多元议题的专家学者协助设立正确、全面的条例,例如孩童安全、反恐、人权等。全球营运组负责执行这些被制定好的社群规范,主要以人力的方式,15,000 位内容审查员全年无休、全天候进行检视服务。而最后是社群诚信组,以 AI 技术去协助内容审查更全面、更有效率。

 

减少使用者不良体验的盛行率(Prevalence),包含为有害内容及滥权的使用者做出主动且实际的规范行动。

 

这就是社群诚信组的使命,希望能用积极、主动、快速的方式,去喝止对平台使用者有害的不良行为。当然,也希望侦测错误的机率可以降低。Barnes 坦言,色情内容很明显,因此可以不出数秒就能被侦测到。但例如仇恨言论的内容难以侦测,因此较容易有犯错的问题。

 

Barnes 进一步解释何谓「盛行率」(Prevalence):接触到不良内容的发生机率。计算方式就是将其触及率、观看率,除以平台上所有内容的触及率、观看率,即可得此盛行率。通常会以「取样」方式来进行,以计算盛行率。

 

因此,盛行率成为衡量有害内容在平台上扩散的指针性数据。而社群诚信组也已降低有害内容的盛行率为组织目的。

 

AI 如何协助脸书执行内容审查

十年的改变

 

这十年间,脸书的内容审查有相当巨大的改变。过去,脸书较仰赖使用者的主动举报,举报后再由人工的方式去彻查是否违规。而现今,审查管道除了举报之外,脸书会透过 AI 科技先进行一轮自动审查,再由人工双重确认是否违规,增加效率。

 

 

根据脸书于记者会中提供的数据,AI 自动审查的准确率平均可达 95%,绝大多数被移除的内容都是主动侦测而发现的,相当厉害。但在霸凌和骚扰的准确率,却只有 13.3%,可见这类内容具灰色地带,且容易被在地化因素左右,让机器仍无法准确预防。

 

建立优先排序

 

不论过去和现在,最终都还是需要人工检查。AI 除了先进行自动审查外,还帮助人类团队先做「优先排序」,提升决策效率。依照不同的差异将有可能违规的内容,进行过滤与排序,而决定差异的因素有三:

 

传播性(Viralty):触及率越高、越快被大众疯传的内容,会优先进行审查,以免有害或错误的信息被快速扩散出去。

严重性(Severity):脸书强调他们非常重视「真实世界的伤害」,因此若造成的伤害越大,越会将排序往前调整。

确定有害的可能性(Likelihood of violation):有些内容很明显就是有害(例如色情图片),但很多内容存在灰色地带,无法直接分辨是否真的需要被撤除,这时就需要这样的衡量标准,帮助人类快速先撤除确定有害的内容。

总而言中,脸书运用 AI 科技,先进行自动审查,再配合上述因素,排序优先级,加快内容审查的效率与速度,针对最有害的内容快速止血,将伤害降到最低。

 

AI 也变得更加聪明,在审查中加入了一款名为XLM-R 的自有开发新技术,先用某个语言来训练 XLM-R 的模型,再将它直接套用到其他语言,可同时理解多种语言的文字,加强准确度。

 

Facebook 也开发了 Whole Post Integrity EmbeddingsWPIE)的技术。简单来说,这项技术会检查贴文的完整内容,让 AI 去理解语境脉络(context),而非单一图像或文字,使审查更加准确。

 

对社群的好处与坏处

AI 协助人类团队,让人类团队可以有更多时间去决定最复杂的决策,让简单、容易被辨认的有害内容在第一时间就被检测出来,大幅节省时间。也培养机器学习有害内容的潜在趋势,以整体的角度去监测流行的不良内容为何,让团队可以提早做出预防。

 

但因为各地文化有所不同,就算有放诸四海皆准的社群守则,某些内容是否对当地民众造成伤害,也无法使用 AI 快速辨认,因此在这一块还是需要在地人力去执行,并且致力于将 AI 模型建构地更加在地化,以因应不同语境下的伤害。

 

除此之外,AI 还有其他隐忧。对比人类律法的无罪推定,AI 审查是否会有未判先审的问题?脸书在记者会中提到,AI 能自动找到恐怖份子组织成员的脸书,并且优先标记甚至关闭账号,像这样权限的疑虑,也值得深思。

 

另外,机器学习跟 AI 演算仍然像是个黑箱子,随着人类团队越来越依赖 AI 自动审查的结果,再来进行人工决策,那机器如何学习?仰仗甚么样的数据库进行学习?都是重点问题,仍需大众与第三方团体持续监督。

分享到:0
标签:
-->
延伸阅读Related Articles
推荐阅读
相关栏目
国际新闻
国内新闻
专题新闻
继续阅读

遏止性暴力犯罪 孟国成立女性警队