研究指出用AI找出仇恨言论,黑人言论被针对状况多1.5倍

许多社群平台变成有各种族裔共处的地方,也就难免有攻击与侮辱的言论,因此用AI来找出潜在的仇恨言论,成为红火的策略。然而依据研究者发现,AI反倒强化既有的社会偏见,黑人的言论有更高的可能被标示为仇恨言论。

两项新研究不约而同的指出训练AI找出仇恨言论强化既有的社会偏见,华盛顿大学(University of Washington) 的研究指出黑人的Twitter贴文比其他族裔多1.5倍,被AI侦测为仇恨言论,而另一项由康奈尔大学领军的研究指出,用算法标示美国黑人英语也有同样社会偏见倾向,相当容易标示为仇恨言论,达到2.2倍的情形。

由于AI算法难以理解人类语言背后的社会场景设置,有些脏话在其他场景下,像是黑人自己用黑鬼用词,或是酷儿自嘲用酷儿用语,并不会有太大问题,但AI没办法读取字词背后的场景。

两篇论文都在计算语言学的大会发布,自然语言处理并非万灵丹,也有与人类一样的盲点,两篇论文也证明训练素材就是有偏差了,标示者没有依据说话场景判断,已经从一开始就出问题。

延伸出来的问题,就会是Google、Facebook、Twitter使用的内容审查工具,是否像上述研究指出的问题,可能从训练素材出问题影响到算法。由于科技公司的AI技术,往往需要与学界的技术交流,如果研究者发现研究用的算法都出问题,大概也能推论出商业公司用的算法也得好好检验了。

尽管社群平台视AI为救世主,能够解决棘手的内容审核问题,但看来有相当大的执行疑点,而且如果一开始的训练素材出问题,后面训练出来的算法将会问题多,变成充满偏见的AI。

(首图来源:Pixabay)