模型可解释性 DeepLIFT 论文解析

这篇具有很好参考价值的文章主要介绍了模型可解释性 DeepLIFT 论文解析。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文标题:Learning Important Features Through Propagating Activation Differences

论文作者:Avanti Shrikumar, Peyton Greenside, Anshul Kundaje

论文发表时间及来源:Oct 2019,ICML

论文链接:http://proceedings.mlr.press/v70/shrikumar17a/shrikumar17a.pdf

DeepLIFT方法

1. DeepLIFT理论

        DeepLIFT解释了目标输入、目标输出与“参考(reference)”输入、“参考”输出间的差异。“参考”输入是人为选择的中性的输入。

        用表示单层神经元或多层神经元的集合,为对应的“参考”,有。用表示目标输入经过的输出(当为全部神经元的集合时,为目标输出),表示“参考”输出,有 。如(1)式,为各个输入贡献分数的加和。

2. 乘数(Multiplier)与链式法则

        乘数与偏导数类似:偏导数是指产生无穷小变化时,的变化率;而乘数是指产生一定量的变化后,的变化率。

        这里可理解为中间层的。给定每个神经元与其直接后继的乘数,即可计算任意神经元与目标神经元的乘数。

3. 定义“参考”

        MNIST任务中,使用全黑图片作为“参考”。

        CIFAR10任务中,使用原始图像的模糊版本能突出目标输入的轮廓,而全黑图片作为参考时产生了一些难以解释的像素。

        DNA序列分类任务中,以ATGC的期望频率作为“参考”。即目标输入是四维的one-hot编码,“参考”输入是相同维度的ATGC期望频率。这里还有一种方法没有看懂,见Appendix J。

4. 区分正、负贡献

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

        当应用RevealCancel规则时,区分正、负贡献非常重要。

5. 分配贡献分数的规则

线性规则

        用于Dense层,卷积层,不可用于非线性层。定义线性函数模型可解释性 DeepLIFT 论文解析,则。

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

        公式有点复杂,举例说明。“参考”输入,目标输入,则由式(6)得模型可解释性 DeepLIFT 论文解析,由式(8)得两个特征贡献分数分别为3和8,由式(12)得两个神经元的乘数分别为3和4。乘数的作用是,如果神经网络有两层线性函数,为第一层神经元,为第二层神经元,则第二层的乘数为5,由式(3)得整个神经网络第一个特征的乘数为15,第二个特征的乘数为20,每个位置的输入乘以乘数就是其贡献分数。

Rescale规则

        用于非线性层,如ReLU,tanh或sigmoid等。由于非线性函数只有一个输入,则,,模型可解释性 DeepLIFT 论文解析和分别为:

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

        当时,可用梯度代替。Rescale规则解决了梯度饱和问题和值域问题,例子见论文。

RevealCancel规则

       这里说明为何 模型可解释性 DeepLIFT 论文解析和 需分开计算。下图是一个计算最小值的操作,假定,目标输入,,则,。根据线性规则,可知,。根据Rescale规则,,,。则总贡献分数为模型可解释性 DeepLIFT 论文解析, 总贡献分数为。

模型可解释性 DeepLIFT 论文解析

         同样地,梯度,输入*梯度方法也会赋予其中一个特征0的贡献分数,这忽略了特征间的相互依赖性。  模型可解释性 DeepLIFT 论文解析和 分开计算的公式为:

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

模型可解释性 DeepLIFT 论文解析

        用这种方法计算出和的贡献分数均为0.5,其过程简单来说是把每一层神经元输出做+、-的区分,两条路径分别计算乘数与贡献分数后再加和。计算过程有点复杂,详见Appendix C 3.4。 文章来源地址https://www.toymoban.com/news/detail-510805.html

到了这里,关于模型可解释性 DeepLIFT 论文解析的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 解释性与可解释性在语音识别中的重要性

    语音识别技术是人工智能领域的一个重要分支,它涉及到将人类的语音信号转换为文本信息的过程。在过去的几年里,语音识别技术取得了显著的进展,这主要归功于深度学习和大数据技术的发展。然而,尽管语音识别技术已经非常强大,但它仍然存在一些挑战,其中一个重

    2024年02月21日
    浏览(30)
  • 可解释机器学习笔记(一)——可解释性

    可解释性没有数学上的定义。 1、可解释性是指人们能够理解决策原因的程度。 2、可解释性是指人们能够一致地预测模型结果的程度。 如果要确保机器学习模型能够解释决策,除了从定义出发,还可以更容易地检查以下性质: 1、公平性(Fairness)。确保预测是公正的,不会隐

    2024年02月16日
    浏览(35)
  • 可解释性+knowledge tracing

    Post-hoc local explanation-事后可解释性  -解释模型为什么会做出这样的预测或者决策 Lu, Y.; Wang, D.; Meng, Q.; and Chen, P. 2020. Towards interpretable deep learning models for knowledge tracing. In International Conference on Artifificial Intelligence in Edu cation , 185–190. Springer. Lu, Y.; Wang, D.; Chen, P.; Meng, Q.; and Yu,

    2024年02月09日
    浏览(28)
  • XAI——可解释性人工智能

    可解释性AI(XAI)旨在提高人工智能系统的透明度和可理解性,使人们更好地理解AI的决策过程和原理。随着AI技术的广泛应用,XAI成为了一个备受关注的重要领域。它不仅有助于建立人们对AI的信任,还可以帮助解决AI伦理和偏见等问题。XAI的研究和应用涵盖了从算法改进、可

    2024年03月15日
    浏览(38)
  • 机器学习可解释性一(LIME)

    随着深度学习的发展,越来越多的模型诞生,并且在训练集和测试集上的表现甚至于高于人类,但是深度学习一直被认为是一个黑盒模型,我们通俗的认为,经过训练后,机器学习到了数据中的特征,进而可以正确的预测结果,但是,对于机器到底学到了什么,仍然是个黑盒

    2024年01月19日
    浏览(27)
  • 【机器学习可解释性】4.SHAP 值

    1.模型洞察的价值 2.特征重要性排列 3.部分依赖图 4.SHAP 值 5.SHAP值的高级使用 理解各自特征的预测结果? 介绍 您已经看到(并使用)了从机器学习模型中提取一般解释技术。但是,如果你想要打破模型对单个预测的工作原理? SHAP 值 (SHapley Additive exPlanations的首字母缩写)对预测进

    2024年02月08日
    浏览(35)
  • 神经网络的可解释性方法

    全局可解释性方法 局部可解释性方法: Shap Value Permutation 积分梯度法: 避免了直接以梯度作为特征重要性所带来的梯度饱和问题 Algorithm Descriptions · Captum

    2024年02月09日
    浏览(29)
  • 【机器学习可解释性】3.部分依赖图

    1.模型洞察的价值 2.特征重要性排列 3.部分依赖图 4.SHAP 值 5.SHAP值的高级使用 每个特征怎么样影响预测结果? 部分依赖图 Partial Dependence Plots 虽然特征重要性显示了哪些变量对预测影响最大,但部分依赖图显示了特征如何影响预测。 这对于回答以下问题很有用: 控制所有其

    2024年02月07日
    浏览(36)
  • 【可解释性机器学习】详解Python的可解释机器学习库:SHAP

    可解释机器学习 在这几年慢慢成为了机器学习的重要研究方向。作为数据科学家需要防止模型存在偏见,且帮助决策者理解如何正确地使用我们的模型。越是严苛的场景,越 需要模型提供证明它们是如何运作且避免错误的证据 。 关于模型解释性,除了线性模型和决策树这种

    2023年04月09日
    浏览(26)
  • 使用BERT分类的可解释性探索

    最近尝试了使用BERT将告警信息当成一个文本去做分类,从分类的准召率上来看,还是取得了不错的效果(非结构化数据+强标签训练,BERT确实是一把大杀器)。但准召率并不是唯一追求的目标,在安全场景下,不仅仅需要模型告诉我们分类结果,还必须把这么分类的原因给输

    2024年02月15日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包