残差网络?收缩?残差收缩网络看这篇就够了
3 月,跳不动了?>>> 残差收缩网络是在“残差网络ResNet”基础上的一种改进网络,是由“残差网络”和“ 收缩 ”两部分所组成的。 其中,ResNet在2015年斩获了ImageNet图像识别竞赛的冠军,目前已经成为了深度学习领域的基础网络。 “收缩”是残差收缩网络的核心贡献,指的是“软阈值化” ,它是很多信号降噪算法的关键步骤。在残差收缩网络中,软阈值化所需要的阈值,实质上是借助 注意力机制 设置的。 在本文中,我们首先对残差网络、软阈值化和注意力机制的基础知识进行了简要的回顾,然后对残差收缩网络的动机、算法和应用展开解读。 1.基础回顾 1.1 残差网络 从本质上讲,残差网络(又称深度残差网络、深度残差学习)是一种卷积神经网络。相较于普通的卷积神经网络,残差网络采用了跨层恒等连接,以减轻卷积神经网络的训练难度。残差网络的一种基本模块如图所示。 1.2 软阈值化 软阈值化是许多信号降噪方法的核心步骤 。它的用处是将绝对值低于某个阈值的特征置为零,将其他的特征也朝着零进行调整,也就是“收缩”。在这里,阈值是一个需要预先设置的参数,其取值大小对于降噪的结果有着直接的影响。软阈值化的输入与输出之间的关系如下图所示。 从图2可以看出,软阈值化是一种非线性变换,有着与ReLU激活函数非常相似的性质:梯度要么是0,要么是1。因此,软阈值化也能够作为神经网络的激活函数。事实上