您好,欢迎访问代理记账网站
  • 价格透明
  • 信息保密
  • 进度掌控
  • 售后无忧

【文献翻译】综述:机器学习可解释性

原文链接:Review Study of Interpretation Methods for Future Interpretable Machine Learning

Abstract

近年来,黑箱模型因其精度高而得到迅速发展。平衡可解释性和准确性越来越重要。可解释性的缺乏严重限制了该模型在学术界和工业界的应用。尽管可解释的机器学习方法多种多样,但解释的视角和意义也各不相同。我们回顾了当前可解释的方法,并根据所应用的模型对其进行了划分。我们将其分为两类:具有自解释模型的可解释方法和具有外部协同解释的可解释方法。将具有外部协同解释的解释方法进一步分为基于实例的分支方法、SHAP方法、知识图方法、深度学习方法和聚类模型方法。分类的目的是帮助我们更好地理解可解释方法中应用的模型特征。这使得研究者更容易找到一个合适的模型来解决解释性问题。对比实验有助于发现不同方法的互补特征。同时,探讨了可解释机器学习的未来挑战和发展趋势,以促进可解释机器学习的发展。

Introduction

Motivation

越来越多的机器学习系统由于其高效的计算能力和高精度而被应用于许多领域。其中许多算法都有很好的性能,如Google推出的NASNet[1]体系结构在大规模图像分类识别中的应用。在验证集上的预测准确率为82.7%。然而,随着神经网络(NN)和深度学习(DL)的迅速发展,这种由复杂过程训练的神经网络模型就像一个黑匣子,很难理解为什么它能如此有效地


分享:

低价透明

统一报价,无隐形消费

金牌服务

一对一专属顾问7*24小时金牌服务

信息保密

个人信息安全有保障

售后无忧

服务出问题客服经理全程跟进