第六章-逻辑回归与最大熵模型
逻辑斯谛回归是统计学习中的经典分类方法,和最大熵模型相比,具有以下的共同点和区别: 共同点 都属于 概率模型 ,该模型要寻找的是给定一个x,得到输出变量Y的概率分布P(Y|x),如果是二分类,Y取值为0或1,如果是多分类,Y有K个不同的类别。 都属于 对数线性模型 ,对概率分布P(Y|x)取对数,可得lnP(Y|x)=w * x关于x的线性函数。 两个模型之前的区别是 Logistic回归属于判别模型 , 最大熵模型属于生成模型 。在最大熵模型中,不仅x有随机性,Y也具有随机性,是一个随机变量。 Logistic回归模型(Logistic Regression Model) 给定输入变量 ,输出变量为 ,将 的概率记作 ,我们已经知道该模型是一个线性模型,可以用 线性 函数来表示,由于 ,那么要如何将 与 对应起来呢?这就需要用到一个变换,该变换称为 Logit变换 。 Logit变换: ,这个就是Logistic回归模型的一个形式。 ,其中 就是给定 的条件下, 的概率。 所以可得下面两个公式: 有了这个模型之后,需要求解参数 ,一旦求出 ,那么任意给定一个输入变量 ,就可以得到 的概率,如果该概率值大于0.5,就将该类判定为1,如果小于0.5,将该类判定为0。 求解 使用的方法是 极大似然估计 ,给定参数 ,求样本的联合概率密度,最大化该联合概率,从而求出参数 。 已知