Google发布了新的实验性TensorFlow隐私测试模块,这个模块可以让开发人员评估其分类模型的隐私属性,该模块会产生一个漏洞评分,以表示模型是否会因训练资料集而泄露信息。
官方提到,隐私是机器学习领域重要的新兴话题,目前还没有能够产生私密模型的规范,但有越来越多研究显示,机器学习模型会泄露训练资料集中的敏感信息,对用户造成隐私上的风险。
去年的时候,TensorFlow推出让开发人员使用差分隐私(Differential Privacy)方法,来训练模型的功能。所谓的差分隐私,是一种密码学方法,通过在资料集中加入噪声,以完全隐藏个人信息,使个人身份无法被识别,不过TensorFlow Privacy所使用的噪声,是为学术中最糟的场景设计,可能会严重影响模型的准确性。
为此,官方想以不同角度来处理隐私问题,而TensorFlow隐私测试函数库这能促进相关的研究,其使用的测试方法,来自于成员推理攻击(Membership Inference Attacks),官方表示,该攻击手法可以预测模型训练期间使用的特定资料,当攻击者能够进行高精准度的预测,就能成功获取训练集里的资料。
原本官方在内部利用成员推理进行测试,该测试会产生一个分数,显示模型是否泄露信息,而官方提到,经实验证实,差分隐私可以有效的降低漏洞分数,即便噪声很小,漏洞评分也都能够降低。
现在Google将该测试方法以模块的形式对外发布,协助开发人员创建更私密的模型,并探索更好的架构,并表示,这些测试结果都将反馈到开发人员社群,共同发展出更好的隐私设计原则和资料处理方法。