人们越来越倚重人工智能解决关键任务,因此机器学习是否具备包容性(Inclusive),能够良好兼容各种多样属性,成了重要的课题,脸书在研发其智能视频设备Portal时,发现人工智能进行图片识别时,对肤色以及性别存在偏见,因此发展出一个框架以打造具包容性的人工智能,并扩大应用到内部其他项目中。
脸书在F8大会分享了他们发展包容性人工智能的历程,事件就发生在脸书AR/VR技术业务主管Lade Obamehinti身上,该团队在Portal早期测试阶段,发现其人工智能相机作出了出乎意料的判断。由于Portal的相机会通过计算机视觉计算,根据人们在房间中的移动与分布,动态构图找出最适合容纳多个主体的视野,但是在某一次Lade Obamehinti说话且做出丰富的手势,Portal的人工智能并没有焦点放在Lade Obamehinti这个明显的兴趣点上,而是将镜头聚焦在另一名白人男同事身上。
Lade Obamehinti是来自尼日尔利亚的优秀女性,他发现,人工智能模型之所以会对不同的人,做出不一样的表现,部分原因在于用来训练模型的数据集存在限制与缺陷,由于人类天性就会对事物进行分类,如果不加以控制,则会造成人工智能系统出现偏差,而且还可能会放大人性负面的部分。为此脸书发展出一套包容性人工智能开发程序,其提供人工智能开发人员可依据的指南,帮助研究人员设计数据集、测量产品性能,以及测试包容性的系统。
当脸书把包容性考虑进人工智能的训练时,发现原本训练Portal智能相机模型的数据集,肤色以及性别的样本分布不均,而样本偏差会使得训练出来的人工智能服务,不完全适用于真实世界,因此Portal团队重新调整了数据集,使用更加平均的性别、年龄和肤色样本,并在验证以及训练模型时,遵守包容性人工智能指南,以最大程度降低Portal智能相机模型可能出现的风险。
Lade Obamehinti为脸书创建了一套程序,来描述包容性人工智能,其包含用户研究、算法开发以及系统验证,用户研究用来分析产品功能在不同的人出现的各式回应,算法则是关于数据集设计、训练与评估,而系统验证则专注于性能表现以及各项体验上。在过去一年中,脸书内部开始将包容性人工智能程序,导入到开发流程中,用来确保脸书与Instagram的照片滤镜,在各式肤色与因素下都能良好运行,Messenger中的AR特效,在各种脸部形状与肤色都能正确的表现。
但脸书也提到,并非每种应用都能应用包容性流程,因为在某些领域上,整个行业都没有足够具代表性的数据集,为了解决这样的问题,脸书正在推动创建全球用户研究,将包容性人工智能测试扩展到声音上,脸书表示,声音数据集需要考量方言、年纪以及其他更多的属性,才足以创建能够听懂不同人们说话的人工智能。
机器学习的包容性议题持续受到关注,特别是当机器学习的应用影响人们权益或是生命时,像是去年美国警方开始使用AWS Rekognition的人脸识别服务,美国公民自由联盟(American Civil Liberties Union,ACLU)指称系统存在识别误差,可能对无辜的人造成负面影响。另外,Google与美国军方合作的Maven计划,以人工智能识别无人机拍摄的物体,并以导弹摧毁这些对象,电子前线基金会(Electronic Frontier Foundation,EFF)则表示,人工智能仍处于难以控制的阶段,可能造成不必要的伤害。
也越来越多的学者提出对于人工智能的不信任,莱斯大学计算机科学副教授Genevera Allen发现,科学研究使用机器学习分析数据,但由于找到的模式只会存在于数据集,而非来自真实世界,将模式直接套用在真实世界,则会得到错误的结果。而台大信息工程所助理教授陈縕侬则提到,人工智能之所以存在偏见,是因为人们存在意识偏见,人工智能只是真实的学习人们提供给他们的数据。