似然函数

学了就忘的数学知识

喜欢而已 提交于 2019-11-26 17:20:43
工作过程中遇到的数学知识点,做个记录: 泰勒公式 :是用函数在某点的信息描述其附近取值的公式. 简单地来说就是把复杂的计算转化为无穷个简单公式的和, 例如计算机只能算加法,那么就无法算出SIN(x), 这时候通过泰勒展开就可以计算了, 不过展开的个数是无穷多个, 所以这里要牺牲精度只取前X个. 似然函数 :用公理化的证明使总体的参数能够最大程度地匹配观测值. 换句话说样本是已经发生的事情, 所以按常理来说各个独立样本的概率乘积要为1, 这里各个独立样本的概率乘积就是似然函数, 一般情况下似然函数无法取到1我们就退而求其次取最大值, 于是就对似然函数求导, 得出总体参数的值 来源: https://blog.csdn.net/xiebin6163/article/details/98966326

详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解

主宰稳场 提交于 2019-11-26 16:56:57
文章目录 概率和统计是一个东西吗? 贝叶斯公式到底在说什么? 似然函数 文章目录 概率和统计是一个东西吗? 贝叶斯公式到底在说什么? 似然函数 来源: https://blog.csdn.net/a200332/article/details/98960751

逻辑回归1_逻辑回归原理详解

点点圈 提交于 2019-11-26 16:43:33
1.1 逻辑回归原理详解 1.1.1 LR原理讲解+公式推导 从公式推导中详细讲解逻辑回归算法的原理。 线性回归模型: 逻辑回归是用来估计一个实例属于某个特定类别的概率,是一个二分类算法,如果预估概率大于等于50%,则模型预测该实例为正类,反之,则预测为负类。 则需要把y从负无穷大到正无穷大映射为概率p从0到1,可以设置为: 则: 两边取e,整理后,得到 逻辑函数 : 一旦逻辑回归模型估算出实例x属于正类的概率为p,那么就可以轻松推断出y值。 假设: 则: 我们需要对系数θ估计,可以采用极大似然估计(MLE),通过最大化对数似然值来估计参数。 注:极大似然估计定义见下文详细讲解。 两边取对数,连乘会改为连加。 单个训练实例的成本函数: 当p接近于0时,-log(p)就会变得非常大,如果模型估计一个正类的概率接近于0,成本将会变得很高。同理,估计一个负类实例的概率接近于1,成本也会变得非常高。 整个训练集的成本函数即为训练实例的平均成本。逻辑回归成本函数表示如下。 逻辑回归成本函数(log 损失函数) : 这是一个凸函数,通过梯度上升能够找出全局最大值。(只要学习率不是太高,又可以长时间等待) 对logL求某个系数θ的偏导: 手写过程如下所示: 即:逻辑回归成本函数的偏导数为每个实例真实值与预测值的误差,将其乘以第j个特征值,并求和。 那么怎么获得系数呢?通过 这个函数开口向下

详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解(转)

99封情书 提交于 2019-11-26 15:16:42
声明:本文为原创文章,发表于nebulaf91的csdn博客。欢迎转载,但请务必保留本信息,注明文章出处。 本文作者: nebulaf91 本文原始地址:http://blog.csdn.net/u011508640/article/details/72815981 频率学派与贝叶斯派 在说极大似然估计(Maximum Likelihood Estimate)与最大后验概率估计(Maximum A Posteriori estimation)之前,不得不说对于概率看法不同的两大派别频率学派与贝叶斯派。他们看待世界的视角不同,导致他们对于产生数据的模型参数的理解也不同。 ① 频率学派 他们认为世界是确定的。他们直接为事件本身建模,也就是说事件在多次重复实验中趋于一个稳定的值p,那么这个值就是该事件的概率。 他们认为模型参数是个定值,希望通过类似解方程组的方式从数据中求得该未知数。这就是频率学派使用的参数估计方法-极大似然估计(MLE),这种方法往往在大数据量的情况下可以很好的还原模型的真实情况。 ② 贝叶斯派 他们认为世界是不确定的,因获取的信息不同而异。假设对世界先有一个预先的估计,然后通过获取的信息来不断调整之前的预估计。 他们不试图对事件本身进行建模,而是从旁观者的角度来说。因此对于同一个事件,不同的人掌握的先验不同的话,那么他们所认为的事件状态也会不同。

Linear Regreesion

做~自己de王妃 提交于 2019-11-26 11:37:23
3、似然函数: 我是这么理解的,比如说我们知道某个X的概率分布密度函数,但是这个概率分布有未知的参数,但是我想得到这个未知的参数θ,然后我们就通过很多个已知的变量,把这些概率分布密度函数乘起来,这个就是似然函数。 最大似然函数 : 知道似然函数后,我们就要求出这个未知参数,我们要求的这个参数应该使得似然函数最大,即概率分布最大。 期望风险(真实风险) ,可理解为 模型函数固定时,数据 平均的 损失程度,或“平均”犯错误的程度。 期望风险是依赖损失函数和概率分布的。 只有样本,是无法计算期望风险的。 所以,采用 经验风险 ,对期望风险进行估计,并设计学习算法,使其最小化。即经验风险最小化(Empirical Risk Minimization)ERM,而经验风险是用损失函数来评估的、计算的。 对于分类问题,经验风险,就训练样本错误率。 对于函数逼近,拟合问题,经验风险,就平方训练误差。 对于概率密度估计问题,ERM,就是最大似然估计法。 转载于:https://www.cnblogs.com/GuoJiaSheng/p/3871464.html 来源: https://blog.csdn.net/weixin_30815427/article/details/98825775

概念介绍(机器学习)

妖精的绣舞 提交于 2019-11-26 11:37:23
似然函数 :似然函数在形式上就概率密度函数。 似然函数用来估计某个参数。 最大似然函数 :就是求似然函数的最大值。 最大似然函数用于估计最好的参数。 最小二乘法 :它通过最小化 误差 的平方和寻找数据的最佳 函数 匹配。就是求 y=a1+a2x的系数。通过最小化误差的平方,然后求系数的偏导数,令导数为0,求解。 梯度下降法 ,基于这样的观察:如果实值函数 在点 处 可微 且有定义,那么函数 在 点沿着 梯度 相反的方向 下降最快。就是求最低点。 局部加权回归 : 它的中心思想是在对参数进行求解的过程中,每个样本对当前参数值的影响是有不一样的权重的,自己上网搜吧。 转载于:https://www.cnblogs.com/GuoJiaSheng/p/3866487.html 来源: https://blog.csdn.net/weixin_30819163/article/details/98825774