论文解读《Deep Resdual Learning for Image Recognition》
总的来说这篇论文提出了ResNet架构,让训练非常深的神经网络(NN)成为了可能 。 什么是残差? “残差在数理统计中是指实际观察值与估计值(拟合值)之间的差。”如果回归模型正确的话, 我们可以将残差看作误差的观测值。”更准确地,假设我们想要找一个 x x,使得 f ( x ) = b f(x)=b,给定一个 x x 的估计值 x 0 x0,残差(residual)就是 b − f ( x 0 ) b−f(x0),同时,误差就是 x − x 0 x−x0 为什么需要堆叠更深的NN呢? 论文阐述道 -- 深度神经网络自然的集成了低、中、高阶特征,同时随着网络深度的提升,这些特征也会随之丰富,这些丰富的特征对于最后执行的分类或回归任务来说都是很有意义的,一般认为可以获得更好的结果; 但是,论文又指出一些问题,堆叠深层的NN存在一些问题: -- 堆叠深层的网络后,网络的学习会变得更加的不容易,因为存在着梯度消失/爆炸问题(BN一定程度解决),会妨碍模型的收敛,使得模型不能得到很好的学习; -- 通过实验发现,堆叠更深的网络存在着退化问题,即随着深度的增加,在分类任务中的正确率会饱和并开始迅速的下降,并且会得到更大的训练损失; 所以可以得到想要优化深层的网络结果并不容易,那么现有解决方法是怎么构造更深层的模型呢? 作者阐述了一种方法就是:增添的网络层都是恒等映射网络