创新点(小卷积核、小池化核、层数更深、全连接变卷积)
- 对AlexNet改进,在第一个卷积层中使用了更小的卷积核和卷积stride
- 多尺度(训练和测试时,采用图片的不同尺度(当然是按各向同性缩放的最小边划定标准))
- 层数深
- 测试阶段,将三个全连接变为三个卷积层,以适应任何大小的图片输入(最后那里是score map求平均)
不同层次的网络结构
从上图可以看出,依旧延续了AlexNet的5-3结构(5个卷积快,3个全连接,其中最后一个是输出)
实验结果
- LRN无用
- 加深网络,可以提高精度
- 多尺度输入(训练)可以提高精度
- 多尺度测试也可以提高精度(多尺度训练、多尺度测试合称尺度抖动)
- 融合dense evaluation和multi-scale evaluation效果好
dense evaluation表示不进行224×224的裁剪,直接放入网络,全连接改为卷积
感受野的大小
卷积神经网络特征图上的像素点映射回原图上的大小
两个问题
Q1:为什么使用3×3的卷积核
(1)减小参数量,若生成相同大小的特征图,三个3×3的卷积相当于一个7×7的卷积:
3×(C×3×3×C)=27C2
C×7×7×C = 49C2
(2)激活层增加,增加非线性
Q2:1×1卷积核的作用
(1)一种为决策增加非线性因素的方式
(2)调整网络的维度扩维或者缩小维度