逻辑斯谛回归模型
目录 一、逻辑斯谛分布 二、二项逻辑斯谛回归模型 三、损失函数 一、逻辑斯谛分布 logistic分布函数形式: 在该方程式中,x是随机变量,μ是平均值,s是与标准偏差成比例的比例参数。这个方程我们只需要了解,在逻辑回归模型中真正用到的是sigmoid函数: 当上式中的 μ = 0,s = 1 时,即为sigmoid函数: S ( z ) = 1 1 + e ( − z ) S(z) = \frac{1}{1+e^{(-z)}} S ( z ) = 1 + e ( − z ) 1 二、二项逻辑斯谛回归模型 逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某事件发生的可能性。可以看到,虽然带有回归二字,但是 逻辑回归模型是一种分类模型。 逻辑回归与线性回归有密不可分的关系: 1.逻辑回归与线性回归都是一种广义线性模型。 2.逻辑回归假设因变量 y 服从伯努利分布(二项分布),而线性回归假设因变量 y 服从高斯分布(正态)。 3. 如果去除Sigmoid映射函数的话,逻辑回归算法就是一个线性回归。 可以说,逻辑回归是以线性回归为理论支持的,但是逻辑回归通过Sigmoid函数引入了非线性因素,因此可以轻松处理0/1分类问题。 上面介绍了sigmod函数: S ( z ) = 1 1 + e ( − z ) S(z) =