过去一年来,YouTube 因为视频审核及推荐算法问题受到许多批评,而近日YouTube 创作者Matt Watson 在Reddit 提及他所注意到推荐算法造成的犯罪者“虫洞”问题后,话题也再度浮上台面。
这不是YouTube 推荐算法第一次因负面影响而被提及。过去几年,YouTube便曾被指控推荐极端主义、恐怖主义的内容,甚至促进阴谋论、反事实的健康或科学内容而受到许多关注。
而这次的发现也是类似的情况,但除了可能造成的潜在影响,Watson 所发现的内容与犯罪间的关系又更加紧密。
在公布的 YouTube 视频中,Watson 运用展示他在运用跳板成立了一个新的帐号后,在无以往纪录下,算法仍是在他观看成年女性泳装视频后的数个推荐视频便导向了未成年者穿着清凉游玩的内容。
而在这些视频下方评论中,也可见到许多用户分享不恰当的评论、链接或时间标记来共享一些不妥当的时刻。除了谴责 YouTube 未能管控平台导致这种评论内容出现,Watson 也认为 YouTube 算法打造出的这种“虫洞”,似乎在助长这些犯罪者之间的联系。
其实早在2017 年底,BBC 和Times 调查并披露了类似情况之后,一些主要广告商便冻结了在YouTube 上的支出,而YouTube 同时也因为提供给儿童观众怪异且低品质的内容受到批评。
尽管 YouTube 随后宣布了一些相关政策变化,包含将积极监管儿童视频的评论,以及发现过多不恰当的内容则便会完全关闭评论后,这种情况仍在持续出现。
对于TechCrunch 询问为何情况没有改善,YouTube 发言人再度承诺会试图改善情况,但他们也强调,关于算法推荐的更改将是渐进式的,同时一开始只会影响美国一小部分视频,因为这涉及机器学习技术与人类评估员、协助培训AI 系统的专家。
发言人解释,在人类审核方面上,目前约有1 万名员工负责评估标记为审查的内容,而以目前来说,每分钟上传到YouTube 的视频长度约为400 小时,同时确认评论内容也仍是AI 系统的一项挑战。
除此之外,Watson 所提及的多数视频都是孩童的日常生活(当然,问题在于如何被利用),而YouTube 也正与国际失踪与受剥削儿童中心(National Center for Missing)合作,向执法部门报告那些不适宜的评论。
YouTube 是否会改变政策来承担更大责还有待观察,但政治压力可能是一种激励力量,为网络平台的监管提供了动力;随着越来越多国家的监管单位决定对社群媒体祭出相关措施,包括要求网络公司承担明确的法律责任,甚至也要求用户对发出的内容也负担责任,相关平台在隐私及审核制度上或许会更加完善。