1 背景
-
使用户能够建立个别预测的心理模型; -
较难获取足够多的样本来获得模型决策过程的概况; -
可能会根据用户观察到的样本而产生偏见。
LRP 是一种基于深度泰勒分解的解释方法,利用输入特征的重要性分数来解释神经网络预测。LRP 利用深度泰勒分解技术,通过预先训练的网络,将输出的相关性向后分配,并确定节点对分类的贡献。根据激活度和网络权值,通过在下一层传播相关性来获得每层的相关性。解释器给出了与输入图像具有相同维数的像素级热图,从而可视化了输入图像中对所选类别有贡献的重要区域。
-
z_ij 为神经元 i 神经元 i 与神经元 j 之间的权重 -
把所有神经元到神经元 j 的 z_ij 合起来加上 bias term 偏置项,得到上一层所有神经元到神经元 j 的向量 zj -
经激活函数 g 处理得到下一层神经元 xj
-
能够提供一个概述图; -
能够避免表述性偏见; -
这种全局简化的概述处理是以忠实性为代价的。
-
扫描样本,每个样本都与预测和规则一起显示,并指出一个或多个错误; -
搜索错误的规则,然后为其提供反例。
本文参考引用的文献
[1] Bach S , Binder A , Montavon G , et al. On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation, PLOS ONE, 2015, 10
[2] Tutorial on Explanations in Interactive Machine Learning,AAAI 2022,https://sites.google.com/view/aaai22-ximl-tutorial
[3] Lertvittayakumjorn et al., 2020, FIND: Human-in-the-Loop Debugging Deep Text Classifiers, EMNLP 2020
[4] Teodora Popordanoska, Mohit Kumar, Stefano Teso, Human-in-the-Loop Debugging Deep Text Classifiers,AAAI 2021
[5] Stammer, W. , et al. "Interactive Disentanglement: Learning Concepts by Interacting with their Prototype Representations." CVPR 2022