深度神经网络可解释性方法汇总,附Tensorflow代码实现
发布时间:2019-11-09 03:27:33 所属栏目:评测 来源:代码医生
导读:理解神经网络:人们一直觉得深度学习可解释性较弱。然而,理解神经网络的研究一直也没有停止过,本文就来介绍几种神经网络的可解释性方法,并配有能够在Jupyter下运行的代码连接。 Activation Maximization 通过激活最化来解释深度神经网络的方法一共有两
http://nbviewer.jupyter.org/github/1202kbs/Understanding-NN/blob/master/2.5%20DeepLIFT.ipynb 基于梯度的方法有:反卷积、反向传播, 引导反向传播,积分梯度和平滑梯度这几种。具体可以参考如下链接: https://github.com/1202kbs/Understanding-NN/blob/master/models/grad.py 详细信息如下: 3.1 Deconvolution 相关代码如下: (编辑:晋中站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |