上千名科学家联手阻止以人脸识别预测犯罪行为的论文出版

知名的全球科学刊物出版社Springer Nature准备在今年出版《一个可利用图片处理来预测犯罪行为的深度神经网络模型》(A Deep Neural Network Model to Predict Criminality Using Image Processing)文章,不过,有超过1,700名来自各领域的科学家担心该文章会助长种族主义,因而联名企图阻止它出版。

该文章将被收入《运算科学与运算智能之执行》(Transactions on Computational Science and Computational Intelligence)之系列书籍中,它是来自哈里斯堡科技大学(Harrisburg University)的研究,研究人员打造了一个人脸识别软件,单从人脸照片就能预测人们从事犯罪行为的几率,宣称准确率高达80%,还特别强调它没有任何的种族偏见,可用来协助执法机关预防犯罪。

然而,来自统计、机器学习、人工智能、法律、社会、历史及人类学的超过1,700名研究人员却出面打脸该研究,认为其宣称是基于不健全的科学前提、研究与方法;而且政府官员在这几年拥抱机器学习与人工智能,把它们当作合法化国家暴力与强化政权的工具,特别是在国家动荡之际。

科学家们指出,要在没有种族偏见的状态下开发一个可预测或识别犯罪行为的系统是不可能的,因为那必须奠基在遭到警方逮捕或被法院判刑的资料是可靠的,但实际上它们便存在着种族偏见。

此外,科学家也认为AI模型在公平性上尝试的各种技术方法,分散了有关算法有效性的基本问题。因为机器学习学者很少接受必要的批判性方法、框架及语言上的培训,而这些对于在模型中集成文化逻辑与隐含假设来说是至关重要的。

科学家们的结论是,最近在种族、阶级与性别上出现的算法偏见,披露了机器学习系统在架构上其实是放大了历史上的歧视。因此,他们不仅希望Springer Nature不要出版该文章,也呼吁所有的出版社都应该避免成为这类研究的曝光平台。