麻省理工学者披露,脸部识别科技有严重种族性别偏见

脸部识别科技的应用范围越来越广,但美国麻省理工学院(MIT)研究人员布兰维妮发现,就算是知名科技企业开发的软件,在识别深色人种脸部时,错误率也偏高。

布兰维妮(Joy Buolamwini )的研究发现,包括亚马逊(Amazon)等科技巨头开发的脸部识别软件,在识别深肤色女性的性别时,错误率较识别浅肤色男性的性别高出许多。

布兰维妮已成功刺激微软(Microsoft)、IBM 等企业改善自家系统,但亚马逊却大为光火,公开批评她的研究方法。一群人工智能(AI)领域专家昨天公开力挺布兰维妮,呼吁亚马逊停止销售自家脸部识别软件给警方。

除了专业人士和企业界,布兰维妮的研究成果也引起政治人物注意,其中有些人主张,应为脸部识别技术使用范围设限。

布兰维妮曾指出,目前相关技术多是在未受监督、甚至秘密情况下被使用,而一旦人们有所警觉,可能为时已晚。

另外有许多研究人员也指出,人工智能系统通过大数据寻找并识别规律、模式,但在过程中却也复制了隐含在这些数据中的制度性偏见。

举例来说,若人工智能系统的学习材料多为白人男性图片,则它最适合适来识别白人男性脸部。

这样的差别性有时可能攸关生死。一份近期发布的研究显示,帮助自动驾驶汽车“看路”的计算机视觉系统,在侦测深肤色行人方面,明显有困难。