YOLO-v3合并卷积层与BN层
转自: https://blog.csdn.net/lxk2017/article/details/88921302 参考: https://blog.csdn.net/l7H9JA4/article/details/104624333 YOLO-v3合并卷积层与BN层 批量归一化-BN层(Batch Normalization) BN计算公式: 合并卷积层与BN层: 部分代码实现 实验结果 具体代码实现 批量归一化-BN层(Batch Normalization) 随机梯度下降法(SGD)对于训练深度网络简单高效,但是它有个毛病,就是需要我们人为的去选择参数,比如学习率、参数初始化、权重衰减系数、Drop out比例等。这些参数的选择对训练结果至关重要,以至于我们很多时间都浪费在这些的调参上。那么使用BN层之后,你可以不需要那么刻意的慢慢调整参数。(详见论文《Batch Normalization_ Accelerating Deep Network Training by Reducing Internal Covariate Shift》 )。 在神经网络训练网络模型时,BN层能够加速网络收敛,并且能够控制过拟合现象的发生,一般放在卷积层之后,激活层之前。BN层将数据归一化后,能够有效解决梯度消失与梯度爆炸问题。虽然BN层在训练时起到了积极作用,然而