可解释机器学习:黑盒模型可解释性理解指南

可解释机器学习:黑盒模型可解释性理解指南

作者:[德] Christoph Molnar

出版社:电子工业

出版年:2021年3月

ISBN:9787121406065

所属分类:网络科技

书刊介绍

《可解释机器学习:黑盒模型可解释性理解指南》内容简介

机器学习虽然对改进产品性能和推进研究有很大的潜力,但无法对它们的预测做出解释,这是当前面临的一大障碍。本书是一本关于使机器学习模型及其决策具有可解释性的书。本书探索了可解释性的概念,介绍了简单的、可解释的模型,例如决策树、决策规则和线性回归,重点介绍了解释黑盒模型的、与模型无关的方法,如特征重要性和累积局部效应,以及用Shapley值和LIME解释单个实例预测。本书对所有的解释方法进行了深入说明和批判性讨论,例如它们如何在黑盒下工作、它们的优缺点是什么、如何解释它们的输出。本书将解答如何选择并正确应用解释方法。本书的重点是介绍表格式数据的机器学习模型,较少涉及计算机视觉和自然语言处理任务。本书适合机器学习从业者、数据科学家、统计学家和所有对使机器学习模型具有可解释性感兴趣的人阅读。
Christoph Molnar:可解释机器学习研究员,目前在德国慕尼黑大学统计研究所攻读博士学位,目标是让机器学习模型的决策更容易被人类理解。著作Interpretable Machine Learning受到业界高度关注。
朱明超:就读于复旦大学计算机科学技术专业,热衷于知识推广,主要研究机器学习和模型可解释性

作品目录

推荐序一
推荐序二
作者序
译者序
第1章:引言
1.1、故事时间
1.2、什么是机器学习
1.3、术语
第2章:可解释性
2.1、可解释性的重要性
2.2、可解释性方法的分类
2.3、可解释性的范围
2.4、可解释性评估
2.5、解释的性质
2.6、人性化的解释
第3章:数据集
3.1、自行车租赁(回归)
3.2、YouTube
垃圾评论(文本分类)
3.3、宫颈癌的危险因素(分类)
第4章:可解释的模型
4.1、线性回归
4.2、逻辑回归
4.3、GLM、GAM
和其他模型
4.4、决策树
4.5、决策规则
4.6、RuleFit
4.7、其他可解释模型
第5章:与模型无关的方法
5.1、部分依赖图
5.2、个体条件期望
5.3、累积局部效应图
5.4、特征交互
5.5、置换特征重要性
5.6、全局代理模型
5.7、局部代理模型(LIME)
5.8、Shapley

5.9、SHAP
第6章:基于样本的解释
6.1、反事实解释
6.2、对抗样本
6.3、原型与批评
6.4、有影响力的实例
第7章:水晶球
7.1、机器学习的未来
7.2、可解释性的未来
参考文献

相关推荐

微信二维码