Facebook算法到底有多可怕?根据Facebook吹哨人Frances Haugen公布的资料显示,Facebook早在2019年2月做过相关实验,在印度设立一个测试账号,观察自家算法如何影响这个增长最快、最重要的海外市场,想不到结果竟然连公司员工都感到震惊。
Haugen先前指控,Facebook明知道Instagram危害年轻人精神健康,甚至是心理健康,却故意淡化这种负面影响,现在她又公布一份46页的研究笔记,指出算法的可怕,因为Facebook设立的测试账号页面,仅三周就充斥着假新闻和煽动性照片,包括斩首、暴力场景以及印度空袭巴基斯坦的假照片,其中“逗人开心”的社团竟出现300名恐怖分子在巴基斯坦爆炸中身亡的假新闻。
研究人员写道,“我在过去三周内看到的死人照片,比我一生中看到的总和还要多”。
这项测试起初是设计来关注Facebook推荐内容,测试账号身份是使用印度海德拉巴、住在斋浦尔的21岁女性资料,而且只关注Facebook推荐的网页或社团,但印度实验表明,Facebook在全球传播有害内容的问题可能更加严重,因为该公司在内容审核上花的钱大都集中在英美语系媒体上。
但Facebook主要增长市场来自印度、印尼和巴西等,所以该公司一直在应征具有语言能力的人,来做基础的内容监督,但印度拥有13亿人口和22种官方语言,因此实际运行起来更加困难,所以Facebook目前倾向于将监督内容外包给承承包商。
Facebook发言人表示,目前公司已经在技术上进行大量投资,并找到各种语言的仇恨性言论,包括印度语与孟加拉语,因此今年所看到的仇恨言论数量减少了一半,至今已降至0.05%。然而,包括穆斯林在内群体的仇恨言论在全球呈现上升趋势,所以Facebook将尽量随着网络仇恨言论的演变来更新政策。
语言成为Facebook审核仇恨内容的绊脚石?
根据路透社报道,更多的内部消息披露,Facebook明知道没有雇佣足够的工作人员,他们既要有语言底子,又要了解当地事件,才能即时了解这些仇恨文章。此外,用于识别、移除此类内容的人工智能系统也往往无法胜任这项工作。
员工在文件中提到,这些问题可能妨碍公司原本的承诺,即阻止阿富汗、也门等地的仇恨言论或其他违反规则的文章传播。
虽然Facebook长期以来一直将AI系统和人工审查视为解决平台上危险内容的一种方式,但除了美国、加拿大和欧洲之外,其他地方的语言对Facebook自动审查功能可说相当头痛。据一份文件显示,2020年Facebook筛选算法无法识别缅甸语的错误内容,以及埃塞俄比亚的奥罗莫语(Oromoo)或阿姆哈拉语(Amharic)的仇恨性言论。
这些偏激文章恐在Facebook中不断流窜,最终激化该公司所认定的“高风险国家/地区”,导致冲突大增。
对此,Facebook发言人表示,公司现在拥有主动识别技术,来检测奥罗莫语和阿姆哈拉语中的仇恨言论,并雇佣更多具有语言基础、了解国家关系的专业人士,包括在缅甸和埃塞俄比亚工作的人。不过他也承认,审核阿拉伯语系的内容是个相当大的挑战,因此Facebook过去2年还特地针对员工进行投资。
目前,主动识别技术可识别50多种语言的仇恨性言论。Facebook指出,公司会根据市场规模和风险进行评估,决定哪里构建人工智能系统;此外,还会有15,000名审核人员把关全球用户的内容,“增加更多的语言专业知识一直是我们的重点”。
(首图来源:Unsplash)