包括首席执行官扎克伯格(Mark Zuckerberg)在内的Facebook高层长期以来表示,AI人工智能可以解决该公司所存在的问题,将仇恨言论、煽动暴力等排除在平台之外。不过,华尔街日报报引导用Facebook内部文件指出,人工智能在消除仇恨言论、暴力以及其他问题所取得的进展微乎其微。为此,负责维护社群诚信的Facebook副总裁Guy Rosen通过官方博客反驳,平台上仇恨言论的流行程度在过去3季已经下降50%。
华尔街日报17日报道指出,Facebook旗下一组员工在今年3月发现,该公司的自动化系统仅能移除平台上3%~5%具仇恨言论的贴文,甚至只移除不到1%违反暴力与煽动规则的内容,这些比例相当低。负责将违规内容排除在平台之外的Facebook员工们,并不相信公司能对这些仇恨言论进行筛选。
实际上,当Facebook的算法不足以确定内容是否真的违反规则而须移除时,该平台会减少向用户显示该贴文的频率,然而发布贴文的账号却不会受到任何惩罚。
此外,内部文件还显示,Facebook在2年前减少人工审核人员审视违规内容的时间,并且进行其他调整以减少申诉数量。华尔街日报认为这使得该公司更加依赖人工智能执行平台规则,并在统计数据中夸大了这项技术的效用。
不过,Guy Rosen为此驳斥华尔街日报的报道,认为内容谈到Facebook用来打击仇恨言论的技术不足,以及故意扭曲Facebook公司的进步是错误的报道内容。
Guy Rosen表示,Facebook不希望在平台增至到仇恨,用户以及广告主同样也不希望看到这些,而平台对移除仇恨言论的作业是透明的;那些文件则表明,Facebook对于社群诚信工作是一个多年的进程,“虽然我们不完美,但团队会不断努力开发系统、发现问题并打造解决方案。”
Guy Rosen则认为,仅关注在内容移除上,对于如何看待Facebook打击仇恨言论是错误的方式。他点出消除仇恨言论的技术只是Facebook用来对抗它的一种方法,“在移除某些贴文之前,我们还需要任某些内容确实是仇恨言论。”
Guy Rosen进一步表示,关注人们在Facebook上实际看到的仇恨言论数量,以及Facebook如何使用各种工具减少这些内容更为重要。Facebook日前发布的新版《社群守则执行报告》显示,平台上每10,000次观看贴文内容,有5次会看到的是仇恨言论,比例为0.05%,在过去3季已经下降了50%。
(Source:Facebook)
事实上,华尔街日报近期根据Facebook前产品经理Frances Haugen提供的内部文件,以及对前任与现任员工的采访,制作出一系列报道,引发社会大众对Facebook这个全球最大社群平台的不同看法。尤其一篇关于Instagram影响少女心理健康的报道,更在9月底促使美国参议院举行听证会,为此做深入讨论。
(首图来源:Unsplash)