浅谈Class Activation Mapping(CAM)
原文地址: https://www.cnblogs.com/luofeel/p/10400954.html 第一次接触Class Activation Mapping这个概念是在论文《Learning Deep Features for Discriminative Localization 》(2016CVPR)中。 简单来说,这篇文章主要介绍了两个核心技术: GAP(Global Average Pooling Layer) 和 CAM(Class Activation Mapping) GAP(全局平均池化层) 在说全局平均池化之前,我想先谈一谈池化层。我们都知道,池化层的作用是正则化。比如说,这是一个VGG-16的模型。 我们可以直观的看到,从卷积层到池化层,深度不变,尺寸变小了。我们使用更小尺寸的特征图来表示输入,虽然会丢失一些信息,但是池化层可以防止过拟合,降低维度,保留主要特征的同时减少计算量,减少了参数数量。 全局平均池化也一样,可以用来正则化。让我们来看一个容易的例子,我想这个相信可以帮助我们理解全局平均池化。 首先是Max pooling(最大池化)。如图所示,最大池化是选择每个子区域的最大值,然后使用子区域的最大值表示该子区域。 Average pooling(平均池化)是指计算出子区域的平均值,用一个平均值来分别表示子区域子区域。 与平均池化类似