作者丨张彪 学校丨北京交通大学硕士生 研究方向丨卷积神经网络的内部可视化(可解释性) 研究目的论文核心:模型预测的可解释性这里假定一个 CNN 可以根据给出的输入图像得到 ![]() ![]() ![]() 当 r=0 时,保留解释可以被定义为: ![]() 上图为对 VGG 使用 deletion / preservation game 进行可视化的结果。a) 为输入图像。b) 执行公式 (2)(3) 得到的结果,删除掩码中的颜色与图像中的颜色互补。c) 通过优化得到的可解释性结果。d) 在 deletion game 中真实颜色的互补模板。e) 强调 deletion game 的重要证据的说明。f) 平均掩码。 ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() 上述的梯度裁剪法不增加超参数,在前向传递中保持模型的原始结构,同时支持细粒度解释。 对比实验总结参考文献 |
|
来自: taotao_2016 > 《AI》