machine learning 之 多元线性回归
整理自Andrew Ng的machine learning课程 week2. 目录: 多元线性回归 Multivariates linear regression /MLR Gradient descent for MLR Feature Scaling and Mean Normalization Ensure gradient descent work correctly Features and polynomial regression Normal Equation Vectorization 前提: $x_{(j)}^{(i)}$:第i个训练样本的第j个特征的值; $x^{(i)}$:第i个训练样本; m:训练样本的数目; n:特征的数目; 1、多元线性回归 具有多个特征变量的回归 比如,在房价预测问题中,特征变量有房子面积x1,房间数量x2等; 模型: $h_\theta(x)=\theta_0+\theta_1x1+\theta_2x_2+...+\theta_nx_n$ 为了方便,认为$x_0=1$(注意这是一个vector,$[x_0^{(1)} x_0^{(2)} ... x_0^{(n)}]=1$),这样的话x和$\theta$就可以相互匹配,进行矩阵运算了; 对于一个training example而言: $h_\theta(x)$ $=\theta_0+