贝叶斯定理

信息论、贝叶斯及机器学习

匿名 (未验证) 提交于 2019-12-03 00:34:01
信息论及贝叶斯 引言 1956年,让机器来做聪明的事情的科学被称为“人工智能”。直到1997年,人类才创造出来能下象棋的电脑并打败了世界冠军。通过这样的一个例子及数字计算机的发展历史表明,感知其实是一个很难解决的问题。但是,我们的脑却能够很简单的解决这个问题,这是否意味着,数字计算机不是人脑的一个好隐喻?或者,我们需要为计算机的运行找新的运算方式? 同时信息论的发展使得我们看到物理事件和电脉冲是如何转化为精神事件和讯息的。但是,在其最初表达中存在一个根本的问题。一条信息中的信息量,或者更通俗的说,任何刺激中的信息量完全由那个刺激源来决定,这种界定信息的方法看上去很完美,实际上会产生自相矛盾的结果。 比如在图像的处理中,图片是由像素点组成的,以此形成不同的颜色。比如看这样一张图片,它是一张简单的以白色为背景的黑色正方形的图片,这张图片中的哪些要素含有最多的信息?当我们的眼睛扫过一个颜色不变的区域的时候, 因为没有任何的改变,就不会产生任何的惊奇感。而当我们眼睛扫到边缘的时候,颜色突然变化,我们就会感到“惊奇”。因此,根据信息论,图片的边缘所含的信息量是最大的,这和我们的直觉也确实是相符的,假如我们用轮廓来代替这个 物体,换句话说,只留下有信息的边缘,我们仍然能够认出这个物体。 但是,这种表述实际上是自相矛盾的,按照这种界定,当我们用眼睛扫一幅图片的时候,我们预测不到接下来会发生什么

掘金笔记:朴素贝叶斯模型

瘦欲@ 提交于 2019-12-02 02:12:44
# 朴素贝叶斯模型 ## 1 - 基础定理与定义 - 条件概率公式: $$ P(A|B)=\dfrac{P(AB)}{P(B)} $$ - 全概率公式: $$ P(A)=\sum_{j=1}^N P(AB_i)=\sum_{j=1}^N P(B_i)P(A|B_i) $$ - 贝叶斯公式: $$ P(B_i|A)=\dfrac{P(AB_i)}{P(A)}=\dfrac{P(B_i)P(A|B_i)}{\sum_{j=1}^N P(B_i)P(A|B_i)} $$ - 概率加和规则: $$ P\left(X=x_i\right)=\sum_{j=1}^N P\left(X=x_i,Y=y_j\right) $$ $$ P\left(X\right)=\sum_Y P\left(X,Y\right) $$ - 概率乘积规则: $$ P\left(X=x_i,Y=y_j\right)=P\left(Y=y_j|X=x_i\right)P\left(X=x_i\right) $$ $$ P\left(X,Y\right)=P\left(Y|X\right)P\left(X\right) $$ - 生成学习方法: 利用训练数据学习$P(X|Y)$和$P(Y)$的估计,得到联合概率分布: $$ P(X,Y)=P(Y)P(X|Y) $$ 然后求得后验概率分布$P(Y|X)$.

朴素贝叶斯分类算法

為{幸葍}努か 提交于 2019-12-01 22:41:37
贝叶斯定理 是关于随机事件A和B的条件概率的一则定理(比如常见的:P(A|B)是在B发生的情况下A发生的可能性)。 朴素 的含义是各特征相互独立,且同等重要。某些 分类 算法均以贝叶斯定理为基础。由此产生了 朴素贝叶斯分类算法 。 朴素贝叶斯分类算法的思想基础是:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。 分类算法的主要任务是构造分类器。 评价分类器的质量可以从这个视角考虑下:首先要定义,分类器的正确率指分类器正确分类的项目占所有被分类项目的比率。通常使用回归测试来评估分类器的准确率,最简单的方法是用构造完成的分类器对训练数据进行分类,然后根据结果给出正确率评估。但这不是一个好方法,因为使用训练数据作为检测数据有可能因为过分拟合而导致结果过于乐观,所以一种更好的方法是 在构造初期将训练数据一分为二,用一部分构造分类器,然后用另一部分检测分类器的准确率 。 拉普拉斯平滑对于改善朴素贝叶斯分类器的分类效果有着积极的作用。拉普拉斯平滑:为了解决零概率的问题,法国数学家拉普拉斯最早提出用加1的方法估计没有出现过的现象的概率,所以加法平滑也叫做拉普拉斯平滑。假定训练样本很大时,每个分量x的计数加1造成的估计概率变化可以忽略不计,但可以方便有效的避免零概率问题。 示例1 计算先验概率和类条件概率 计算后验概率 因为P(是|X)>P(否

通俗易懂的朴素贝叶斯分类

安稳与你 提交于 2019-12-01 08:35:52
概述 贝叶斯分类算法是统计学的一种概率分类方法,朴素贝叶斯分类是贝叶斯分类中最简单的一种。其分类原理就是利 用贝叶斯公式根据某特征的先验概率计算出其后验概率,然后选择具有最大后验概率的类作为该特征所属的类。之 所以称之为”朴素”,是因为贝叶斯分类只做最原始、最简单的假设:所有的特征之间是统计独立的。 1.条件概率公式 条件概率(Condittional probability),就是指在事件B发生的情况下,事件A发生的概率,用P(A|B)来表示。 根据文氏图可知:在事件B发生的情况下,事件A发生的概率就是P(A∩B)除以P(B)。 同理可得: 所以 全概率公式:如果事件 构成一个完备事件且都有正概率,那么对于任意一个事件B则 有: 2.贝叶斯推断 根据条件概率和全概率公式,可以得到贝叶斯公式如下 : P(A)称为"先验概率”(Prior probability),即在B事件发生之前,我们对A事件概率的一个判断。 P(A| B)称为"后验概率" (Posterior probability),即在B事件发生之后,我们对A事件概率的重新评估。 P(B |A)/P(B)称为"可能性函数”(Likely hood), 这是一个调整因子,使得预估概率更接近真实概率。 所以条件概率可以理解为:后验概率=先验概率*调整因子 如果”可能性函数">1,意味着"先验概率"被增强

几个常用算法的适应场景及其优缺点!

℡╲_俬逩灬. 提交于 2019-11-29 07:56:30
机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。通常最开始我们都会选择大家普遍认同的算法,诸如SVM,GBDT,Adaboost,现在 深度学习 很火热, 神经网络 也是一个不错的选择。 假如你在乎精度(accuracy)的话,最好的方法就是通过交叉验证(cross-valida ti on)对各个算法一个个地进行 测试 ,进行比较,然后调整参数确保每个算法达到最优解,最后选择最好的一个。但是如果你只是在寻找一个“足够好”的算法来解决你的问题,或者这里有些技巧可以参考,下面来分析下各个算法的优缺点,基于算法的优缺点,更易于我们去选择它。 1.天下没有免费的午餐 在机器学习领域,一个基本的定理就是“没有免费的午餐”。换言之,就是没有算法能完美地解决所有问题,尤其是对监督学习而言(例如预测建模)。 举例来说,你不能去说神经网络任何情况下都能比决策树更有优势,反之亦然。它们要受很多因素的影响,比如你的数据集的规模或结构。 其结果是,在用给定的测试集来评估性能并挑选算法时,你应当根据具体的问题来采用不同的算法。 当然,所选的算法必须要适用于你自己的问题,这就要求选择正确的机器学习任务。作为类比,如果你需要打扫房子,你可能会用到吸尘器、扫帚或是拖把,但你绝对不该掏出铲子来挖地。 2. 偏差

sklearn中的朴素贝叶斯分类器

隐身守侯 提交于 2019-11-28 09:18:07
sklearn中的朴素贝叶斯分类器 之前 理解朴素贝叶斯 中的结尾对sklearn中的朴素贝叶斯进行了简单的介绍. 此处对sklearn中的则对sklearn中的朴素贝叶斯算法进行比较详细介绍.不过手下还是对朴素贝叶斯本身进行一些补充. 朴素贝叶斯算法 朴素贝叶斯算法的数学基础都是围绕贝叶斯定理展开的,因此这一类算法都被称为朴素贝叶斯算法. 朴素贝叶斯的分类原理是通过对象的先验概率,利用贝叶斯公式计算出后验概率.即对象属于某一类的概率. 选择具有后验概率最大的类作为该对象所属的类.同时朴素–’特征为独同分布’, 同时因为先验概率需要我们先假设一个事件分布的概率分布方式(三种),因此也就有了我们在sklearn中对应的三种朴素贝叶斯算法 - 高斯朴素贝叶斯分类器(默认条件概率分布概率符合高斯分布) - 多项式朴素贝叶斯分类器(条件概率符合多项式分布) - 伯努利朴素贝叶斯分类器(条件概率符合二项分布) 尽管其假设过于简单,但是在很多实际情况下,朴素贝叶斯工作得很好,特别是文档分类和垃圾邮件过滤。 这些工作都要求一个小的训练集来估计必需参数。 同时相比于其他更复杂的方法,朴素贝叶斯学习器和分类器非常快。 分类条件分布的解耦意味着可以独立单独地把每个特征视为一维分布来估计。 这样反过来有助于缓解维度灾难带来的问题。 * 最后总结其特点有以下几个 * - 属性可以离散可以连续 -

Sklearn 中的朴素贝叶斯分类器

天大地大妈咪最大 提交于 2019-11-28 09:13:22
原文地址: Naive Bayes Classification With Sklearn 原文作者: Martin Müller 译文出自: 掘金翻译计划 本文永久链接: https://github.com/xitu/gold-miner/blob/master/TODO1/naive-bayes-classifier-sklearn-python-example-tips.md 译者: sisibeloved 校对者: rockyzhengwu Sklearn 中的朴素贝叶斯分类器 用豆机实现的高斯分布 这篇 教程 详述了 朴素贝叶斯分类器 的算法、它的 原理 及 优缺点 ,并提供了一个使用 Sklearn 库 的示例。 背景 以著名的 泰坦尼克号遇难者数据集 为例。它收集了泰坦尼克号的乘客的个人信息以及是否从那场海难中生还。让我们试着用乘客的船票费用来预测一下他能否生还。 泰坦尼克号上的 500 名乘客 假设你随机取了 500 名乘客。在这些样本中, 30% 的人幸存下来。幸存乘客的平均票价为 100 美元 ,而遇难乘客的平均票价为 50 美元 。现在,假设你有了一个新的乘客。你不知道他是否幸存,但你知道他买了一张 30 美元 的票穿越大西洋。请你预测一下这个乘客是否幸存。 原理 好吧,你可能回答说这个乘客 没能幸存 。为什么?因为根据上文所取的乘客的随机子集中所包含的信息

sklearn中的朴素贝叶斯算法

筅森魡賤 提交于 2019-11-28 09:09:01
sklearn中的朴素贝叶斯分类器 之前 理解朴素贝叶斯 中的结尾对sklearn中的朴素贝叶斯进行了简单的介绍. 此处对sklearn中的则对sklearn中的朴素贝叶斯算法进行比较详细介绍.不过手下还是对朴素贝叶斯本身进行一些补充. 朴素贝叶斯算法 朴素贝叶斯算法的数学基础都是围绕贝叶斯定理展开的,因此这一类算法都被称为朴素贝叶斯算法. 朴素贝叶斯的分类原理是通过对象的先验概率,利用贝叶斯公式计算出后验概率.即对象属于某一类的概率. 选择具有后验概率最大的类作为该对象所属的类.同时朴素–‘特征为独同分布’, 同时因为先验概率需要我们先假设一个事件分布的概率分布方式(三种),因此也就有了我们在sklearn中对应的三种朴素贝叶斯算法 高斯朴素贝叶斯分类器(默认条件概率分布概率符合高斯分布) 多项式朴素贝叶斯分类器(条件概率符合多项式分布) 伯努利朴素贝叶斯分类器(条件概率符合二项分布) 尽管其假设过于简单,但是在很多实际情况下,朴素贝叶斯工作得很好,特别是文档分类和垃圾邮件过滤。 这些工作都要求一个小的训练集来估计必需参数。 同时相比于其他更复杂的方法,朴素贝叶斯学习器和分类器非常快。 分类条件分布的解耦意味着可以独立单独地把每个特征视为一维分布来估计。 这样反过来有助于缓解维度灾难带来的问题。 最后总结其特点有以下几个 属性可以离散可以连续 数学基础扎实,分类效率稳定

朴素贝叶斯

风格不统一 提交于 2019-11-28 06:16:10
1、贝叶斯定理: 2、朴素贝叶斯分类器 朴素贝叶斯分类的正式定义如下: 1、设 为一个待分类项,而每个a为x的一个特征属性。 2、有类别集合 。 3、计算 。 4、如果 ,则 。 那么现在的关键就是如何计算第3步中的各个条件概率。我们可以这么做: 1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。 2、统计得到在各类别下各个特征属性的条件概率估计。即 。 3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导: 因为分母对于所有类别为常数,因为我们只要将分子最大化皆可。又因为各特征属性是条件独立的,所以有: 根据上述分析,朴素贝叶斯分类的流程可以由下图表示(暂时不考虑验证): 来源: https://www.cnblogs.com/zf-blog/p/11396836.html

学习贝叶斯定理

Deadly 提交于 2019-11-28 01:44:40
感谢 https://mp.weixin.qq.com/s/YPUHWBPwRiH0N0AFNnIrmw 整理一下,学习笔记 贝叶斯定理是一种 在 已知 其他概率的情况下 求概率的方法: P(A|B) 是在 B 发生的情况下 A 发生的概率; P(A) 是 A 发生的概率; P(B|A) 是在 A 发生的情况下 B 发生的概率; P(B) 是 B 发生的概率。 第一个例子: 50%的雨天的早上是多云的! 但多云的早上其实挺多的(大约40%的日子早上是多云的)! 这个月干旱为主(平均30天里一般只有3天会下雨,10%)! 我们用"雨"来代表今天下雨,"云"来代表早上多云。 当早上多云时,当天会下雨的可能性是 P(雨|云)。 P(雨|云) = P(雨)·P(云|雨) /P(云) P(雨) 是今天下雨的概率 = 10% P(云|雨) 是在下雨天早上有云的概率 = 50% P(云) 早上多云的概率 = 40% P(雨|云) =0.1×0.5/0.4=0.125 今天下雨的概率只有12.5% 重点是 公式怎么记住!!! AB AB AB 来源: https://www.cnblogs.com/duoba/p/11384352.html