提问 发文

GradCAM神经网络可视化解释(原理和实现)

微微菌

| 2024-03-12 10:10 180 0 0

GradCAM是经典的特征图可视化工具,在CV任务中,能用于分析CNN学到了什么东西。先看一张图:

这就是GradCAM做出的效果,它直观地表示出咱们模型认为图片是Dog的是依据哪些地方。
GradCAM借用梯度来进行注意力表示,发表于ICCV2017,如今依然活跃在学术和工程界。

dog
论文链接:https://arxiv.org/abs/1610.02391

GradCAM原理

在这里插入图片描述

对于视觉任务,包括图像分类、目标检测等,通常都是backbone+head的形式。如图1所示。所以,GradCAM可以无差别地对各种视觉任务进行可视化。
在操作上,GradCAM拿到backbone的输出梯度,一般是4维张量,将这一层梯度进行平均化作为权重,然后跟这一层的输出张量做一个加权平均(先乘再加),然后过一层relu去掉负值,最后等比例投影在调整过的原图上。

我以图像分类为例进行剖析:(假设我们做5分类)
第一步,前向传播得到特征图。需要进行一次前向计算,得到backbone的特征图输出。
第二步,反向传播得到梯度。模型的输出为一个5-d的向量res,假设我们要看类别1的可视化,咱们就把res[1]当作loss进行反向传播。这么做的原理:咱们需要知道模型识别出类别1会认为哪些特征图是重要的,而梯度直接表达了参数要调整的方向,假设参数调整方向为正向,那么这些特征图就应该是重要的。所以,在这一层的对应位置的平均梯度可以表示该特征图的重要性,即权重。再结合第一步得到的特征图,进行加权平均就可以了~

咱们看一下代码:(来自https://github.com/leftthomas/GradCAM)

import cv2
import numpy as np
import torch
import torch.nn.functional as F
import torchvision.transforms as transforms
from torch.autograd import Variable


class GradCam:
def __init__(self, model):
self.model = model.eval()
self.feature = None
self.gradient = None

def save_gradient(self, grad):
self.gradient = grad

def __call__(self, x):
image_size = (x.size(-1), x.size(-2))
datas = Variable(x)
heat_maps = []
for i in range(datas.size(0)):
img = datas[i].data.cpu().numpy()
img = img - np.min(img)
if np.max(img) != 0:
img = img / np.max(img)

feature = datas[i].unsqueeze(0)
for name, module in self.model.named_children():
print(name)
if name == 'classifier' or name == 'fc':
feature = feature.view(feature.size(0), -1)
feature = module(feature)
if name == 'features' or name == 'backbone':
feature.register_hook(self.save_gradient) # get backbone gradients
self.feature = feature
classes = torch.sigmoid(feature)
print(torch.argmax(F.softmax(classes), dim=-1))
one_hot, _ = classes.max(dim=-1)
self.model.zero_grad()
one_hot.backward()

weight = self.gradient.mean(dim=-1, keepdim=True).mean(dim=-2, keepdim=True)
mask = F.relu((weight * self.feature).sum(dim=1)).squeeze(0)
mask = cv2.resize(mask.data.cpu().numpy(), image_size)
mask = mask - np.min(mask)
if np.max(mask) != 0:
mask = mask / np.max(mask)
heat_map = np.float32(cv2.applyColorMap(np.uint8(255 * mask), cv2.COLORMAP_JET))
cam = heat_map + np.float32((np.uint8(img.transpose((1, 2, 0)) * 255)))
cam = cam - np.min(cam)
if np.max(cam) != 0:
cam = cam / np.max(cam)
heat_maps.append(transforms.ToTensor()(cv2.cvtColor(np.uint8(255 * cam), cv2.COLOR_BGR2RGB)))
heat_maps = torch.stack(heat_maps)
return heat_maps

代码中通过register_hook来获取backbone的梯度,想进一步了解hook的可戳《python中的register_hook


收藏 0
分享
分享方式
微信

评论

游客

全部 0条评论

10147

文章

9.22W+

人气

17

粉丝

1

关注

官方媒体

轻松设计高效搭建,减少3倍设计改稿与开发运维工作量

开始免费试用 预约演示

扫一扫关注公众号 扫一扫联系客服

©Copyrights 2016-2022 杭州易知微科技有限公司 浙ICP备2021017017号-3 浙公网安备33011002011932号

互联网信息服务业务 合字B2-20220090

400-8505-905 复制
免费试用
微信社区
易知微-数据可视化
微信扫一扫入群