最小二乘、加权最小二乘、迭代加权最小二乘(迭代重加全最小二乘)

做~自己de王妃 提交于 2019-12-16 23:25:07

最小二乘、加权最小二乘(WLS)、迭代加权最小二乘(迭代重加全最小二乘)(IRLS)

  • 最小二乘:

最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。

X=[x11x12...x21x22...x31x32.........xmn]X=\begin{bmatrix} x_{11} & x_{12} & ... \\ x_{21} & x_{22} & ... \\ x_{31} & x_{32} & ... \\ ... & ... & x_{mn} \end{bmatrix} Y=[y1...ym]Y=\begin{bmatrix} y_{1}\\ ...\\ y_{m} \end{bmatrix} θ=[θ1...θn]\mathbf{\theta}=\begin{bmatrix} \theta_{1}\\ ...\\ \theta_{n} \end{bmatrix}
XX中每一列为特征,每一行代表一个样本;YY为标签;θ\theta是参数
有优化问题:f(θ)=12XθY2f(\theta)=\frac{1}{2}\left | \left | X\theta-Y \right | \right |^{2}
f(θ)=12(θTXTAθθTATYYTAθ+YTY)f(\mathbf{\theta})=\frac{1}{2}(\mathbf{\theta}^{T}X^{T}A\mathbf{\theta}-\mathbf{\theta}^{T}A^{T}Y-Y^{T}A\mathbf{\theta}+Y^{T}Y)
对函数f(θ)f(\theta)关于参数θ\mathbf{\theta}求偏导:f(θ))θ=ATAθATY=0\frac{\partial f(\mathbf{\theta}))}{\partial \mathbf{\theta}}=A^{T}A\mathbf{\theta}-A^{T}Y=0
θ=(ATA)1ATY\mathbf{\theta}=(A^{T}A)^{-1}A^{T}Y
得到θ\mathbf{\theta}的解析解。

  • 加权最小二乘(WLS):
    加权最小二乘是在普通最小二乘的基础上对每个样本引入权重,调整不同样本误差对损失函数的贡献率。

加权最小二乘法是对原模型进行加权,使之成为一个新的不存在异方差性的模型,然后采用普通最小二乘法估计其参数的一种数学优化技术。
异方差性是相对于同方差而言的。所谓同方差,是为了保证回归参数估计量具有良好的统计性质,经典线性回归模型的一个重要假定:总体回归函数中的随机误差项满足同方差性,即它们都有相同的方差。

XXYYθ\theta定义如上,引入对角矩阵WW
W=[w11...000w22...0............00...wmm]W=\begin{bmatrix} w_{11} & ... &0 & 0\\ 0 & w_{22} &... &0 \\ ...& ... & ... &... \\ 0& 0& ... & w_{mm} \end{bmatrix}
损失函数变为:f(θ)=12W(XθY)2f(\mathbf{\theta})=\frac{1}{2}\left \| W(X\mathbf{\theta}-Y) \right \|^{2}
f(θ)=12(WθTXTAθWθTATYWYTAθ+WYTY)f(\mathbf{\theta})=\frac{1}{2}(W\mathbf{\theta}^{T}X^{T}A\mathbf{\theta}-W\mathbf{\theta}^{T}A^{T}Y-WY^{T}A\mathbf{\theta}+WY^{T}Y)

对函数f(θ)f(\theta)关于参数θ\mathbf{\theta}求偏导:f(θ)θ=XTWTWY+XTWTWXθ=0\frac{\partial f(\mathbf{\theta})}{\partial \mathbf{\theta}}=-X^{T}W^{T}WY+X^{T}W^{T}WX\mathbf{\theta}=0
 θ=(XTWTWX)1XTWTWY\ \mathbf{\theta}=(X^{T}W^{T}WX)^{-1}X^{T}W^{T}WY

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!