机器学习 | 吴恩达斯坦福课程笔记整理之(二)逻辑回归
本系列为吴恩达斯坦福 CS229机器学习课程笔记整理,以下为笔记目录: (一)线性回归 (二)逻辑回归 (三)神经网络 (四)算法分析与优化 (五)支持向量机 (六)K-Means (七)特征降维 (八)异常检测 (九)推荐系统 (十)大规模机器学习 第二章 逻辑回归 使用线性回归来处理 0/1 分类问题比较困难,因此引入逻辑回归来完成 0/1 分类问题,逻辑一词也代表了是(1)和非(0)。 一、Sigmoid预测函数 在逻辑回归中,定义预测函数为: g(z) 称之为 Sigmoid Function,亦称 Logic Function 二、决策边界 决策边界是预测函数 hθ(x) 的属性,而不是训练集属性。这是因为能作出“划清”类间界限的只有 hθ(x) ,而训练集只是用来训练和调节参数的。 线性决策边界 非线性决策边界 二、预测代价函数 对于分类任务来说,我们就是要反复调节参数 θ ,亦即反复转动决策边界来作出更精确的预测。假定我们有代价函数 J(θ) ,其用来评估某个 θ 值时的预测精度,当找到代价函数的最小值时,就能作出最准确的预测。 通常,代价函数具备越少的极小值,就越容易找到其最小值,也就越容易达到最准确的预测。 -> 局部最小和全局最小 逻辑回归定义的代价函数为: 三、最小化代价函数 同样采用BGD和SGD两种方式 四、正则化