Iterpretable Machine Learning:介绍

2022-09-12  本文已影响0人  Natsu想当科学家

介绍

这本书介绍了如何使监督学习模型变得可解释。这一章节中包含了一些数学公式,但是你需要理解这些方法背后的想法即使没有这些公式。这本书不适合试图从头开始学习机器学习的人。如果你是从头开始学习机器学习,这里有很多书和其他资源来学习这些基础。我推荐The Elements of Statistical Learning” by Hastie, Tibshirani, and Friedman (2009) ⁴ and Andrew Ng’s “Machine Learning” online course⁵ on the online learning platform coursera.com to start with machine learning. 这本书和这个课程均可以被免费使用。
新的解释型机器学习方法正在以极快的速度发布。要跟上所有出版的东西是疯狂的也是不可能的。这也是为什么你在这本书中找不到最新奇古怪的方法但是通过这本书你却能学习到可解释型机器学习的既定方法和基本概念。这些基础为你使机器学习变得可解释做了准备。同时内化这些基本概念还能让你更好的理解和内化发表在arxiv.org上的关于可解释型机器学习的文章。
这本书以一些反乌托邦的短篇故事开头,这些故事无关理解这本书的内容,但是却能给你带来乐趣让你思考。接着这本书细述了可解释型机器学习的概念。我们将讨论何时可解释性如此重要和不同类型的解释。书中使用的术语可以在术语这一章节中进行查找。大多数模型和方法的解释方法都是使用真实数据,这些数据在数据章节进行了描述。其中一个实现可解型机器学习的方法是使用可解释型机器学习模型,如Linear models or decision trees.另一种使机器学习可解释的选择是使用模型解释诊断型工具,这种工具可以在监督性机器学习中进行使用。模型诊断方法章节设计的方法包括partial dependence plots and permutation feature importance. Model-agnostic methods 通过改变机器学习模型的输入并测量预测输出的变化来工作。Model-agnostic methods 将数据实例作为解释返回的模型无关的方法的方法将在基于实例的解释一章中讨论。所有与模型无关的模型诊断方法都可以根据它们是否解释所有数据实例的全局模型的行为或个别预测。以下方法解释模型的整体行为:Partial Dependence Plots, Accumulated Local Effects, Feature Interaction, Feature Importance, Global Surrogate Models
and Prototypes and Criticisms
. 为了解释个体预测我们有Local Surrogate Models, Shapley Value Explanations, Counterfactual Explanations (and closely related: Adversarial Examples) 同时也有一些模型一些方法可以用来解释全局模的行为和个别预测的方面。如Individual Conditional Expectation and Influential Instances。本书最后对可解释性机器学习的未来进行了乐观的展望。学习的未来是什么样子的。

上一篇下一篇

猜你喜欢

热点阅读