微软研究院发布解开AI黑盒子的工具包lnterpretML,提供开发人员多种方式来实验AI模型和系统,进一步解释模型,lnterpretML工具包含有许多可理解的模型和多种方法,能够针对黑盒子模型的个别预测行为产生解释。
微软指出,当AI系统影响人类的生活时,使人们了解AI的行为就相当重要,了解AI模型的行为,也能让数据科学家为模型调试,而理解模型如何推论,则可以使设计模型的开发者传递模型如何运行的信息给最终用户。
一般模型的准确度和可理解性无法兼顾,微软研究院开发出一套兼顾准确度和理解性的算法Explainable Boosting Machine,通过现代机器学习技术,像是Bagging和Boosting分类方法,来改善传统的广义加成(Generalized Additive)模型。
开发者可以用lnterpretML工具包,比较不同的方法产生的解释,并选出一个最适合的方法,通过在不同的方法之间比对一致性,能够协助开发者了解该解释的可信度。