可解释机器学习笔记(一)——可解释性

这篇具有很好参考价值的文章主要介绍了可解释机器学习笔记(一)——可解释性。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

可解释性定义

可解释性没有数学上的定义。
1、可解释性是指人们能够理解决策原因的程度。
2、可解释性是指人们能够一致地预测模型结果的程度。

可解释性包含的性质

如果要确保机器学习模型能够解释决策,除了从定义出发,还可以更容易地检查以下性质:
1、公平性(Fairness)。确保预测是公正的,不会隐式或显式地歧视受保护的群体。
2、隐私性(Privacy)。确保保护数据中的敏感信息。
3、可靠性(Reliability)或鲁棒性(Robustness)。确保输入的微小变化不会导致预测发生剧烈变化。
4、因果性(Causality)。检查是否只找到因果关系。
5、可信任性(Trust)。与黑匣子相比,人们跟容易信任用于解释其决策的系统。

可解释性方法分类

自解释 or 事后可解释

自解释:书中给出的定义是,通过限制机器学习模型的复杂性(称为内在的,也可称为本质上的),说明模型的可解释性。自解释性是指由于结构简单而被认为是可解释的机器学习模型。
事后解释:在训练后分析模型的方法,说明模型的可解释性。事后可解释性是指:模型训练之后运用解释方法,与模型无关的。

解释方法的输出

可以根据解释方法的输出大致区分各种解释方法。

特征概要统计量(Feature Summary Statistic)

许多解释方法为每个特征提供概要统计量。有些方法为每个特征返回一个数字,例如:特征重要性;或者更复杂的输出,例如:成对特征交互强度,即每个特征对表示一个数字。

特征概要可视化(Feature Summary Visualization)

大多数特征概要统计信息也可以可视化。部分依赖图是显示特征和平均预测结果的曲线。

模型内部(Model Internal)

一种方法是自解释模型的解释方法,例如:线性模型中的权重或决策树学习得到的树结构。另一种方法是输出模型内部结构,例如:在卷积神经网络中将学习到的特征检测器可视化。根据定义,输出模型内部的可解释性方法是特定于模型的。

数据点(Data Point)

这种方法返回已经存在或者新创建的数据点以使模型具有可解释性。一种方法称为反事实解释(Counterfactual Explanation),为了解释对数据实例的预测,该方法通过用一些方式改变某些特征以改变预测结果(例如:预测类别的翻转),找到相似的数据点。另一种方法是识别预测类的原型,输出新数据点的解释方法要求可以解释数据点本身。

代理模型

解释黑盒模型的一种解决方案是用可解释模型(全局地或局部地)对其进行近似。而这些可解释模型本身可以通过查看模型内部参数或特征概要统计量来解释。

特定于模型(Model-specific) or 模型无关(Model-agnostic)

特定于模型的解释方法仅限于特定的模型类,例如:应用于神经网络的解释工具也是特定于模型的。相对应的,与模型无关的工具可以用于任何机器学习模型,并在模型经过训练后应用(即事后的)。这些与模型无关的方法通常通过分析特征输入和输出对来实现。根据定义,这些方法是不能访问模型的内部信息的。

局部(Local) or 全局(Global)

局部可解释:解释方法是解释单个实例预测。
全局可解释:解释方法是解释整个模型行为。

参考文献

Christoph Molnar(著), 朱明超(译). 可解释机器学习:黑盒模型可解释性理解指南. 北京: 电子工业出版社, 2021.文章来源地址https://www.toymoban.com/news/detail-569692.html

到了这里,关于可解释机器学习笔记(一)——可解释性的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能入门实战:如何在人工智能中实施可解释性

    人工智能(Artificial Intelligence, AI)是一门研究如何让计算机模拟人类智能的科学。在过去的几十年里,人工智能技术已经取得了显著的进展,例如机器学习、深度学习、自然语言处理、计算机视觉等。然而,这些技术仍然存在一个重要的问题:它们的决策过程通常是不可解释

    2024年01月20日
    浏览(47)
  • 可解释性AI:打开人工智能决策的黑盒子

    随着人工智能(AI)的广泛应用,其在各个领域中的决策过程日益受到关注。然而,许多AI系统如同一个“黑盒子”,人们难以理解其内部的决策逻辑和原理。为了解决这一问题,可解释性AI(XAI)应运而生,成为提高AI透明度和可理解性的关键。 可解释性AI(XAI)是人工智能(

    2024年02月21日
    浏览(30)
  • 【可解释性机器学习】详解Python的可解释机器学习库:SHAP

    可解释机器学习 在这几年慢慢成为了机器学习的重要研究方向。作为数据科学家需要防止模型存在偏见,且帮助决策者理解如何正确地使用我们的模型。越是严苛的场景,越 需要模型提供证明它们是如何运作且避免错误的证据 。 关于模型解释性,除了线性模型和决策树这种

    2023年04月09日
    浏览(26)
  • 机器学习可解释性一(LIME)

    随着深度学习的发展,越来越多的模型诞生,并且在训练集和测试集上的表现甚至于高于人类,但是深度学习一直被认为是一个黑盒模型,我们通俗的认为,经过训练后,机器学习到了数据中的特征,进而可以正确的预测结果,但是,对于机器到底学到了什么,仍然是个黑盒

    2024年01月19日
    浏览(27)
  • 【机器学习可解释性】4.SHAP 值

    1.模型洞察的价值 2.特征重要性排列 3.部分依赖图 4.SHAP 值 5.SHAP值的高级使用 理解各自特征的预测结果? 介绍 您已经看到(并使用)了从机器学习模型中提取一般解释技术。但是,如果你想要打破模型对单个预测的工作原理? SHAP 值 (SHapley Additive exPlanations的首字母缩写)对预测进

    2024年02月08日
    浏览(35)
  • 【机器学习可解释性】3.部分依赖图

    1.模型洞察的价值 2.特征重要性排列 3.部分依赖图 4.SHAP 值 5.SHAP值的高级使用 每个特征怎么样影响预测结果? 部分依赖图 Partial Dependence Plots 虽然特征重要性显示了哪些变量对预测影响最大,但部分依赖图显示了特征如何影响预测。 这对于回答以下问题很有用: 控制所有其

    2024年02月07日
    浏览(36)
  • 【机器学习可解释性】5.SHAP值的高级使用

    1.模型洞察的价值 2.特征重要性排列 3.部分依赖图 4.SHAP 值 5.SHAP值的高级使用 汇总SHAP值以获得更详细的模型解释 总体回顾 我们从学习排列重要性和部分依赖图开始,以显示学习后的模型的内容。 然后我们学习了SHAP值来分解单个预测的组成部分。 现在我们将对SHAP值展开讨论

    2024年02月08日
    浏览(41)
  • 解释性与可解释性在语音识别中的重要性

    语音识别技术是人工智能领域的一个重要分支,它涉及到将人类的语音信号转换为文本信息的过程。在过去的几年里,语音识别技术取得了显著的进展,这主要归功于深度学习和大数据技术的发展。然而,尽管语音识别技术已经非常强大,但它仍然存在一些挑战,其中一个重

    2024年02月21日
    浏览(30)
  • 可解释性+knowledge tracing

    Post-hoc local explanation-事后可解释性  -解释模型为什么会做出这样的预测或者决策 Lu, Y.; Wang, D.; Meng, Q.; and Chen, P. 2020. Towards interpretable deep learning models for knowledge tracing. In International Conference on Artifificial Intelligence in Edu cation , 185–190. Springer. Lu, Y.; Wang, D.; Chen, P.; Meng, Q.; and Yu,

    2024年02月09日
    浏览(28)
  • 模型可解释性 DeepLIFT 论文解析

    论文标题: Learning Important Features Through Propagating Activation Differences 论文作者: Avanti Shrikumar,   Peyton Greenside,   Anshul Kundaje 论文发表时间及来源:Oct 2019,ICML 论文链接: http://proceedings.mlr.press/v70/shrikumar17a/shrikumar17a.pdf 1. DeepLIFT理论         DeepLIFT解释了目标输入、目标输出

    2024年02月11日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包