在卷积神经网络中,卷积核大小为1*1的卷积有什么作用呢?
有两个作用:
1. 改变channel的数量
2. 增加非线性程度
第一个比较好理解,那就是1*1卷积不改变特征图的大小或者尺寸(当然,你也可以改变,通过stride大于1来实现,这时会损失空间信息。还有就是通过加一个pooling层在这个卷积后面)。另外,这里的改变是指我们可以增加通道数,也可以减小通道数。
第二个则是很多人可能不了解的作用。我们知道在卷积之后,我们都会做两件事,第一就是激活,第二是归一化。我们的激活一般选择RelU,这是非线性的,这就可以增加特征的非线性程度。而增加非线性程度则是我们通常想做到的。
来源:CSDN
作者:月下花弄影
链接:https://blog.csdn.net/qq_27261889/article/details/103923734