普通最小二乘OLS
https://www.datalearner.com/blog/1051539312290417 在统计学中,普通最小二乘法(OLS)是一种用于在线性回归模型中估计未知参数的线性最小二乘法。 OLS通过最小二乘法原则选择一组解释变量的线性函数的参数:最小化给定数据集中观察到的因变量(被预测变量的值)与预测变量之间残差的平方和。这篇博客将简要描述其参数的求解过程(模型的表示参考: 最小二乘法简介 )。 我们以一个二元数据为例,假设有一组数据 X=\{(x_1,y_1),\cdots,(x_m,y_m)\} X = { ( x 1 , y 1 ) , ⋯ , ( x m , y m ) } ,我们希望求出一条直线,来拟合这一组数据: y = x\beta + \beta_0 y = x β + β 0 残差平方和: S(\beta) = \sum_{i=0}^m (y_i - x_i\beta - \beta_0)^2 S ( β ) = ∑ i = 0 m ( y i − x i β − β 0 ) 2 我们要求出 \beta β 和 \beta_0 β 0 使得上述目标函数取得最小值,显然,可以通过对 \beta β 和 \beta_0 β