朴素贝叶斯法 阅读更多 关于 朴素贝叶斯法 基本假设为: 预测公式为: 所以从这个公式看得出,需要对类别概率和条件概率进行统计,最终选择后验概率最大的作为输出,因为对于所有的类别,分母部分是相同的,所以最终公式为分子取最大的类别: 平滑的本质: 平滑的本质是对训练数据集中那些概率为0的统计量分配一个基本的不为0的概率。 来源: CSDN 作者: 厉害了我的汤 链接: https://blog.csdn.net/YD_2016/article/details/104039062
17_朴素贝叶斯算法原理 阅读更多 关于 17_朴素贝叶斯算法原理 1.概率基础: 联合概率:包含多个条件,并且所有条件同时成立的概率。P(A,B)=P(A)*P(B); 条件概率:在事件B发生的条件下,事件A发生的概率。P(A|B)=P(AB)/P(B)=P(B|A)P(A)/P(B); 条件概率的特性:当AB相互独立时,P(A1,A2|B)=P(A1|B)P(A2|B) 2.朴素贝叶斯公式: 这里以文档预测给出,一篇文章可以分为一个个词组,判断这篇文章属于什么类型,就是依据词组在总文章中的概率大小。 W为给定的文章,Fn为文章中的不同词组,C为文章类别。W=F1+F2+F3......+Fn; 依据给定的文章和词语来预测这是一篇什么类型的文章。 P(C|W)=P(W|C)*P(C)/P(W)=P(F1,F2,F3......Fn|C)/P(F1,F2,F3......Fn); 来源: https://www.cnblogs.com/cwj2019/p/11755567.html
贝叶斯原理 阅读更多 关于 贝叶斯原理 条件概率: B条件下A发生的概率等于B发生概率分之A和B同时发生的概率 全概率公式: P(A) = P(AB1)+P(AB2)+...+P(ABn) = P(A|B1)P(B1)+P(A|B2)P(B2)+...+P(A|Bn)P(Bn) 贝叶斯公式: 全概率列子如下: 贝叶斯概率例题如下: 来源: https://www.cnblogs.com/wutanghua/p/11552292.html
朴素贝叶斯算法 阅读更多 关于 朴素贝叶斯算法 看的头秃,生活艰难 由条件概率可得,P(wi | x) = P(wi, x) / P(x) 套贝叶斯公式得,P(wi | x) = P(x | wi) * P(wi) / P(x) 通过比较P(wi | x)的大小决定分为哪一类中,由于分母相同,所以转化为比较P(x | wi) * P(wi) 的大小, P(wi)表示分类为wi分类的概率, P(x | wi)表示x在wi分类下的概率,以单词组向量为例,假设单词组向量中的每个单词都是相互独立的,那么总的概率等于各个部分概率相乘,统计每个单词在wi分类下出现的次数 / wi分类中每篇出现的单词总数,然后相乘。(这种方法好像叫做拉普拉斯平滑) 由于相互独立后如果单词没有出现最终得到的概率为0,所以将概率相乘转化为概率相加,对数字去对数,同样有单调性,同时防止特征过多而造成数据相乘越来越小,最后为0的情况,同样也是用对数处理的方法,同时给分母加底数 参考资料 1、《机器学习实战》 2、 https://www.cnblogs.com/lliuye/p/9178090.html 来源: https://www.cnblogs.com/lalalatianlalu/p/11332435.html
详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解 阅读更多 关于 详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解 文章目录 概率和统计是一个东西吗? 贝叶斯公式到底在说什么? 似然函数 文章目录 概率和统计是一个东西吗? 贝叶斯公式到底在说什么? 似然函数 来源: https://blog.csdn.net/a200332/article/details/98960751