AI 帮助人类团队进行自动审查,以及建立起审查的优先排序,让团队可以更加快速进行决策。
脸书于昨日(17 日)下午发布「Facebook 运用 AI 执行社群守则」在线记者会,邀请来自 Community Integrity 部门的工程师 Chris Palow 与产品经理 Ryan Barnes,针对 AI 如何被应用且执行社群守则,以及影响内容审查、算法的议题,做出说明与解释。
脸书如何使用 AI
工程师 Palow 首要说明 AI 如何被应用。首先,工程部门会先将有害的内容(即需要被审查出的内容)与正常的一般内容,同时喂给机器学习,让机器学会去分辨哪些社群内容是违反规范的,并且使之自动贴上卷标,提供一份列表给人类团队做进一步的分析,看是否真的有问题。
「虽然没有百分之百的正确率,但目前为止团队觉得都还蛮准确的。」Palow 坦率地说。
脸书的内容审查架构
脸书总共有三个部分一起协力推动平台安全:内容政策组(content policy)、社群诚信组(community integrity)、全球营运组(global operation)。内容政策组负责制定社群规范,邀请各个领域、多元议题的专家学者协助设立正确、全面的条例,例如孩童安全、反恐、人权等。全球营运组负责执行这些被制定好的社群规范,主要以人力的方式,15,000 位内容审查员全年无休、全天候进行检视服务。而最后是社群诚信组,以 AI 技术去协助内容审查更全面、更有效率。
减少使用者不良体验的盛行率(Prevalence),包含为有害内容及滥权的使用者做出主动且实际的规范行动。
这就是社群诚信组的使命,希望能用积极、主动、快速的方式,去喝止对平台使用者有害的不良行为。当然,也希望侦测错误的机率可以降低。Barnes 坦言,色情内容很明显,因此可以不出数秒就能被侦测到。但例如仇恨言论的内容难以侦测,因此较容易有犯错的问题。
Barnes 进一步解释何谓「盛行率」(Prevalence):接触到不良内容的发生机率。计算方式就是将其触及率、观看率,除以平台上所有内容的触及率、观看率,即可得此盛行率。通常会以「取样」方式来进行,以计算盛行率。
因此,盛行率成为衡量有害内容在平台上扩散的指针性数据。而社群诚信组也已降低有害内容的盛行率为组织目的。
AI 如何协助脸书执行内容审查
十年的改变
这十年间,脸书的内容审查有相当巨大的改变。过去,脸书较仰赖使用者的主动举报,举报后再由人工的方式去彻查是否违规。而现今,审查管道除了举报之外,脸书会透过 AI 科技先进行一轮自动审查,再由人工双重确认是否违规,增加效率。
根据脸书于记者会中提供的数据,AI 自动审查的准确率平均可达 95%,绝大多数被移除的内容都是主动侦测而发现的,相当厉害。但在霸凌和骚扰的准确率,却只有 13.3%,可见这类内容具灰色地带,且容易被在地化因素左右,让机器仍无法准确预防。
建立优先排序
不论过去和现在,最终都还是需要人工检查。AI 除了先进行自动审查外,还帮助人类团队先做「优先排序」,提升决策效率。依照不同的差异将有可能违规的内容,进行过滤与排序,而决定差异的因素有三:
传播性(Viralty):触及率越高、越快被大众疯传的内容,会优先进行审查,以免有害或错误的信息被快速扩散出去。
严重性(Severity):脸书强调他们非常重视「真实世界的伤害」,因此若造成的伤害越大,越会将排序往前调整。
确定有害的可能性(Likelihood of violation):有些内容很明显就是有害(例如色情图片),但很多内容存在灰色地带,无法直接分辨是否真的需要被撤除,这时就需要这样的衡量标准,帮助人类快速先撤除确定有害的内容。
总而言中,脸书运用 AI 科技,先进行自动审查,再配合上述因素,排序优先级,加快内容审查的效率与速度,针对最有害的内容快速止血,将伤害降到最低。
而 AI 也变得更加聪明,在审查中加入了一款名为XLM-R 的自有开发新技术,先用某个语言来训练 XLM-R 的模型,再将它直接套用到其他语言,可同时理解多种语言的文字,加强准确度。
Facebook 也开发了 Whole Post Integrity Embeddings(WPIE)的技术。简单来说,这项技术会检查贴文的完整内容,让 AI 去理解语境脉络(context),而非单一图像或文字,使审查更加准确。
对社群的好处与坏处
AI 协助人类团队,让人类团队可以有更多时间去决定最复杂的决策,让简单、容易被辨认的有害内容在第一时间就被检测出来,大幅节省时间。也培养机器学习有害内容的潜在趋势,以整体的角度去监测流行的不良内容为何,让团队可以提早做出预防。
但因为各地文化有所不同,就算有放诸四海皆准的社群守则,某些内容是否对当地民众造成伤害,也无法使用 AI 快速辨认,因此在这一块还是需要在地人力去执行,并且致力于将 AI 模型建构地更加在地化,以因应不同语境下的伤害。
除此之外,AI 还有其他隐忧。对比人类律法的无罪推定,AI 审查是否会有未判先审的问题?脸书在记者会中提到,AI 能自动找到恐怖份子组织成员的脸书,并且优先标记甚至关闭账号,像这样权限的疑虑,也值得深思。
另外,机器学习跟 AI 演算仍然像是个黑箱子,随着人类团队越来越依赖 AI 自动审查的结果,再来进行人工决策,那机器如何学习?仰仗甚么样的数据库进行学习?都是重点问题,仍需大众与第三方团体持续监督。