cv-ResNet学习笔记

a 夏天 提交于 2019-12-02 20:03:38

2相关工作

  1. 残差表示
  2. shortcut连接

3深度参差学习

参差学习

实际就是用在输入和输出之间加入一个shortcut连接,使用深度网络来学习输入到输入的残差,F(x)=H(x)-x;
这个想法的起源在于,在解决了梯度消失的问题后,深层网络的表现要差于较浅层,而深层网络的模型空间显然是大于浅层网络的,因此这个问题揭示了在非线性网络中,学习恒等映射是一个比较困难的事情,因此需要加入一个恒等映射网络

由shortcut提供的恒等网络

如果输入输出相同维度:y=F(x,{Wi})+x     (1)
如果输入输出不同维度:y=F(x,{Wi})+Ws*x   (2)

网络架构

参差网络架构

维度不同下包含两种shortcut

  1. 添加额外的0输入到增加的维度
  2. 使用上面的公式2进行匹配

实现

  1. 短边resize
  2. 224x224crop+水平翻转
  3. 颜色增强
  4. BN
  5. SGD batchsize256
  6. learning rate 0.1/60x10^4迭代
  7. momentum:0.0001 weight decay+0.9

4 实验

3个观察

  1. 34层的普通网络error比18层普通网络的高,34层的残差网络比18层残差网络的低
  2. 相同层数的残差网络比普通网络error低
  3. 残差网络收敛更快

从上面的观察基本可以证明推断是正确的

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!