Meta采用少样本学习技术,更全面地侦测社交平台有害内容

Meta构建并且部署了一种称为少量样本学习(Few-Shot Learner,FSL)的人工智能技术,将平台对有害内容的反应时间从数月降低到数周,并且能够不断适应新的有害内容类型。该技术适用超过100种语言,还可以从图像和文本等不同类型的资料中学习,同时能够强化现有已经部署,用来侦测其他类型有害内容的人工智能模型。

有害内容演变的速度很快,无论是由事件驱动,抑或是恶意人士刻意规避系统侦测的行为,官方提到,人工智能系统能跟上有害内容演变速度变得很重要,但人工智能要能侦测这些有害内容,通常需要数个月的时间收集并且标记范例,才能训练每个单独的人工智能系统,发现新类型的内容。

而Meta新发展的这个人工智能系统,使用少样本学习技术,官方解释,这是一种相对较新的方法,其模型能够从对许多不同主题,拥有大量且一般性的理解,接着只要使用少量或甚至零样本来学习新任务,就能有效地执行任务,Meta以捕鱼技术来比喻人工智能侦测技术,传统系统类似可以捕捉特定鱼种的钓鱼线,而少样本学习技术则像是额外的网子,可以捕捉其他类型的鱼。

之所以Meta现在才能够采用少样本学习技术,研究人员解释,这是因为最近的技术突破,像是自我监督学习技术,和超高效基础设施,使该领域能够开始从传统、特定的人工智能系统,转向更大且更通用的系统,并且降低对标记资料的依赖。

Meta使用违反政策的内容,来训练新的人工智能系统,最后该模型还以解释新政策的文本进行训练,和过去通过比对资料模式的系统不同,FSL使用通用语言,以及违反政策的内容进行训练,因此可以学习政策的隐藏含义。

目前Meta已经在一些较新的事件中,测试FSL的表现,像是识别暗指疫苗会改变DNA,这类以误导性或是危言耸听信息,吓阻他人接种COVID-19疫苗的贴文,其他的任务还有改进现有分类器,该分类器能够标记煽动暴力的内容,侦测到类似“那个人需要所有的牙齿吗?”这种贴文,官方提到,传统的方法可能会忽略这类型的煽动性贴文,因为使用DNA来质疑疫苗接种,和利用牙齿来暗示暴力的样本并不多。

官方运用各种方法来衡量模型的性能,并且查看FSL在脸书和Instagram上部署后,有害内容的流行率,也就是人们看到违规内容的次数百分比之间的差异,经过实验,Meta人工智能少样本学习技术,能够正确侦测传统系统可能遗漏的贴文,并且通过主动侦测潜在有害内容,来防止有害内容在平台中传播,以减少这类内容的流行。