模型的正则化———权重衰减

◇◆丶佛笑我妖孽 提交于 2020-02-19 05:47:14

正则化

降低模型的过拟合的好方法是正则化这个模型(限制它):模型有越少的自由度,就越难以拟合数据。
对于一个线性模型,正则化的典型实现就是约束模型中参数的权重。

权重衰减(weight decay)

权重衰减等价于 L2L_2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。
L2L_ 2范数正则化在模型原损失函数基础上添加L2L_2 范数惩罚项,从而得到训练所需要最小化的函数。L2L_2 范数惩罚项指的是模型权重参数每个元素的平方和与一个正的常数的乘积。
以一个线性回归损失函数为例:
在这里插入图片描述
带有L2L_2范数惩罚项的新损失函数为:
在这里插入图片描述
其中超参数λ>0,λ>0λ>0,λ>0。当权重参数均为0时,惩罚项最小。当λλ较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当λλ设为0时,惩罚项完全不起作用。
在小批量随机梯度下降中,我们将线性回归一节中权重w1w_1w2w_2的迭代方式更改为在这里插入图片描述

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!