伯努利

事件的独立性

99封情书 提交于 2020-04-06 09:47:55
1.事件独立的概念:设A , B是两个事件,如果满足P ( AB )= P ( A ) P ( B ),则称事件A与事件B相互独立,简称独立. 2.伯努利概型:若试验 E 单次试验的结果只有两个A , A ,则称E为伯努利试验.   设 P ( A )= p ( 0< p <1),此时P ( A )=1p .将试验E在相同条件下独立地重复做 n次,称这一串重复的独立试验为 n重伯努利试验. 3.伯努利定理:设在一次试验中,事件 A发生的概率为 p ( 0< p <1),则在n重伯努利试验中,事件A恰好发生 k次的概率为   来源: https://www.cnblogs.com/1314-520/p/12640543.html

伯努利数学习笔记

痴心易碎 提交于 2020-03-26 23:32:40
1.定义式 定义伯努利数列 \(B_n\) 满足: \[B_0=1,\sum_{i=0}^n{n+1\choose i}B_i=0(n>0) \] 2.递推式 可以发现定义式里面包含了 \(B_n\) 这一项,于是把 \(B_n\) 提出来: \[-{n+1\choose n}B_n=\sum_{i=0}^{n-1}{n+1\choose i}B_i \\-(n+1)B_n=\sum_{i=0}^{n-1}{n+1\choose i}B_i \\B_n=-\frac{1}{n+1}\sum_{i=0}^{n-1}{n+1\choose i}B_i \] 直接用定义式求是 \(O(n^2)\) 的复杂度 3.生成函数 把定义式的循环上界减一 ,得: \[\sum_{i=0}^{n-1}{n\choose i}B_i=0 \] 注意到组合数上标变成了 \(n\) ,再加个 \(B_n\) : \[\sum_{i=0}^{n-1}{n\choose i}B_i+B_n=B_n \\\sum_{i=0}^{n-1}{n\choose i}B_i+{n\choose n}B_n=B_n \\\sum_{i=0}^{n}{n\choose i}B_i=B_n \] 组合数很烦,把它拆开来: \[\sum_{i=0}^{n}\frac{n!}{i!(n-i)!}B_i=B_n \\\sum_{i

逻辑回归输出的值是真实的概率吗?

我的梦境 提交于 2020-02-28 07:30:28
本文只在 博客 基础上,在 三、指数分布族 中有所改动。 逻辑回归作为被广泛使用的二分类模型,面试中自然是不可缺少的。但要深刻理解逻辑回归又不是那么容易的,比如说,逻辑回归输出的值是0到1之间的值,这个值是真实的概率吗?逻辑回归为什么要选择sigmoid函数的形式,而不是其他将数值映射到0到1之间的形式?本文试图给出一个尽可能简单明了的分析。 一、从一个例子开始 假设你在一家金融公司工作,老板交给你一个任务,建一个模型,用来预测一个借款人是否会违约,公司拥有一个借款人的特征数据,比如年龄。 将是否违约作为标签变量y,0表示没有违约,1表示违约。在给定特征x的情况下, 我们假设 y 是一个服从伯努利分布的二值随机变量。注意,这是我们做的第一个假设哦!从某种意义上讲,模型准不准,首先要看假设合不合理。 我们的任务用数学语言描述就是,寻找一个模型,输入x后,可以告诉我们y所服从的随机分布的参数,知道参数后,就可以计算y的期望作为预测。 具体到违约预测,上面所说的随机分布就是指伯努利分布,该分布的参数就是Φ=P(y=1),同时也是该分布的期望。 请认真体会一下我们的思路: 1、对每一个确定的x,y仍然是一个随机变量 2、该随机变量服从某个随机分布 3、努力求出这个随机分布的参数 4、求出该随机分布的期望 5、将期望作为预测值 二、从更高的层次看待伯努利分布 那么

受限玻尔兹曼机和深度置信网络

爱⌒轻易说出口 提交于 2020-02-15 15:23:36
2016-07-20 11:21:33 1受限玻尔兹曼机 梯度下降法 (以及相关的L-BFGS算法等)在使用随机初始化权重的深度网络上效果不好的技术原因是:梯度会变得非常小。具体而言,当使用 反向传播方法 计算导数的时候,随着网络的深度的增加,反向传播的梯度(从输出层到网络的最初几层)的幅度值会急剧地减小。结果就造成了整体的损失函数相对于最初几层的权重的导数非常小。这样,当使用梯度下降法的时候,最初几层的权重变化非常缓慢,以至于它们不能够从样本中进行有效的学习。这种问题通常被称为“梯度的弥散”[4]。 与梯度弥散问题紧密相关的问题是:当神经网络中的最后几层含有足够数量神经元的时候,可能单独这几层就足以对有标签数据进行建模,而不用最初几层的帮助。因此,对所有层都使用随机初始化的方法训练得到的整个网络的性能将会与训练得到的浅层网络(仅由深度网络的最后几层组成的浅层网络)的性能相似。 梯度弥散一直是困扰着深度神经网络的发展,那么如何解决梯度弥散问题呢?多伦多大学的Geoff Hinton提出了设想:受限玻尔兹曼机(Restricted Boltzmann Machines, RBM)[1],即一类具有两层结构的、对称链接无自反馈的随机神经网络模型(一种特殊的马尔科夫随机场)。 如图1所示,一个RBM包含一个由随机的隐单元构成的 隐藏层 (一般是伯努利分布)和一个由随机的可见(观测

统计与分布之伯努利分布与二项分布

社会主义新天地 提交于 2020-02-15 08:10:40
目录 目录 前文列表 伯努利分布 二项分布 前文列表 计数原理 组合与排列 统计与分布之高斯分布 统计与分布之泊松分布 伯努利分布 伯努利分布(Bernoulli Distribution),是一种 离散分布 ,又称为 “0-1 分布” 或 “两点分布”。例如抛硬币的正面或反面,物品有缺陷或没缺陷,病人康复或未康复,此类满足「 只有两种可能,试验结果相互独立且对立 」的随机变量通常称为伯努利随机变量。 对于伯努利随机变量 X,如果使用 1 表示成功,其概率为 p(0<p<1) ;使用 0 表示失败,其概率为 q=1-p 。则可以称伯努利随机变量 X 服从参数为 p 的伯努利分布,其分布律为: 对于伯努利分布来说,其离散型随机变量期望为: E(x) = ∑x∗p(x) = 1∗p+0∗(1−p) = p 方差为: D(x) = E(x^2)−(E^2)(x) = 12∗p−p2 = p(1−p) 二项分布 二项分布(Binomial Distribution)也是一种 离散型概率分布 ,又称为「n 重伯努利分布」。 首先看「n 重伯努利试验」的定义 :如果随机变量序列 Xn(n=1, 2, …) 中的随机变量均服从与参数为 p 的伯努利分布,那么随机变量序列 Xn 就形成了参数为 p 的 n 重伯努利试验。例如,假定重复抛掷一枚均匀硬币 n 次,如果在第 i 次抛掷中出现正面,令

朴素贝叶斯分类器(伯努利贝叶斯+高斯贝叶斯+多项式贝叶斯)

送分小仙女□ 提交于 2020-02-03 00:58:58
1 from sklearn.datasets import load_diabetes 2 X,y=load_diabetes().data,load_diabetes().target 3 X_train,X_test,y_train,y_test=train_test_split(X,y,random_state=8) 4 lr=LinearRegression().fit(X_train,y_train) 5 print("the coefficient:{}".format(lr.coef_)) 6 print('the intercept:{}'.format(lr.intercept_)) 7 print("the score of this model:{:.3f}".format(lr.score(X_test,y_test))) 1 import matplotlib.pyplot as plt 2 plt.scatter(X[:,0],X[:,1],c=y,cmap=plt.cm.spring,edgecolors='k') 3 plt.show() 1 #伯努利贝叶斯分类器 2 from sklearn.naive_bayes import BernoulliNB 3 bnb=BernoulliNB() 4 bnb.fit(X_train,y_train)

概率论——伯努利和二项随机变量

£可爱£侵袭症+ 提交于 2020-01-29 04:12:40
文章目录 1 伯努利随机变量 2 二项随机变量 3 二项随机变量的性质 4 二项随机变量的分布函数 1 伯努利随机变量   对于一个试验,我们将其结果分为两类,成功或失败,当试验结果为成功时 X = 1 X=1 X = 1 ,试验结果失为败时 X = 0 X=0 X = 0 。这样,随机变量 X X X 的概率质量函数为: p ( 0 ) = P { X = 0 } = 1 − p p ( 1 ) = P { X = 1 } = p p(0) = P\{X=0\}=1-p \\ p(1) = P\{X=1\}=p p ( 0 ) = P { X = 0 } = 1 − p p ( 1 ) = P { X = 1 } = p 其中 0 ≤ p ≤ 1 0\le p \le 1 0 ≤ p ≤ 1 是每次试验成功的概率。如果随机变量的概率质量函数为上式的形式,那么就称 X X X 为 伯努利随机变量 。 2 二项随机变量   现在对于上述试验,假设进行 n n n 次 独立的 重复试验,每次试验成功的概率为 p p p ,失败的概率为 1 − p 1-p 1 − p 。现在我们令随机变量 X X X 表示 n n n 次试验中成功的次数,那么此时就称 X X X 为参数是 ( n , p ) (n,p) ( n , p ) 的二项随机变量 ,因此伯努利随机变量也是参数为 ( 1 , p

二元变量(伯努利分布、二项式分布以及Beta分布)

跟風遠走 提交于 2020-01-17 22:48:28
概率分布(一) 参数分布 取这个名字是因为少量的参数可以控制整个概率分布。如高斯分布,我们只需要控制其期望和方差就可以得到一个特定的概率分布。 频率学家的观点:通过最优化某些准则(如似然函数)来确定参数的具体值。 贝叶斯观点:给定观察数据,先引入参数的先验分布,然后用贝叶斯定理计算对应的后验概率分布。共轭先验(conjugate prior)使后验概率的分布函数形式与先验概率相同,极大的简化了贝叶斯分析。 参数方法与非参数方法 参数方法是假定分布为某一个具体的函数形式,然后估计其参数。非参数方法则依赖数据集的规模。非参数方法中的模型也有参数,但不是用来控制模型的参数,而是用于控制模型的复杂度。 二元变量 伯努利分布(Bernoulli distribution) 考虑一个不均匀硬币,抛掷硬币时其正面朝上的概率由参数 \(\mu \in [0,1]\) 决定,则 \(p(x=1|\mu)=\mu\) 。 伯努利分布可以表示为: \[ Bern(x|\mu)=\mu^x(1-\mu)^{1-x} \] 其期望和方差为: \[ E(x)=\mu \\ Var(x)=\mu(1-\mu) \] 对数似然函数为( \(D\) 为数据集): \[ \ln p(D|\mu)=\sum_{n=1}^N(x_n\ln\mu+(1-x_n)\ln(1-\mu))\\ \mu_{MLE}=\frac{m

概率统计——讲透最经典的三种概率分布

痴心易碎 提交于 2020-01-17 08:54:27
本文始发于个人公众号: TechFlow 这一讲当中我们来探讨三种经典的概率分布,分别是伯努利分布、二项分布以及多项分布。 在我们正式开始之前,我们先来明确一个概念,我们这里说的分布究竟是什么? 无论是在理论还是实际的实验当中,一个事件都有可能有若干个结果。每一个结果可能出现也可能不出现,对于每个事件而言出现的可能性就是概率。而分布,就是衡量一个概率有多大。 伯努利分布 明确了分布的概念之后,我们先从最简单的伯努利分布开始。 伯努利分布非常简单,就是假设一个事件只有发生或者不发生两种可能,并且这两种可能是固定不变的。那么,显然,如果假设它发生的概率是p,那么它不发生的概率就是1-p。这就是伯努利分布。 生活中所有只可能出现两种结果并且概率保持不变的事件都可以认为服从伯努利分布,比如抛硬币,比如生孩子是男孩还是女孩。 伯努利实验就是做一次服从伯努利概率分布的事件,它发生的可能性是p,不发生的可能性是1-p。 二项分布 我们明确了伯努利分布之后再来看二项分布就简单了。说白了二项分布其实就是多次伯努利分布实验的概率分布。 以抛硬币举例,在抛硬币事件当中,每一次抛硬币的结果是独立的,并且每次抛硬币正面朝上的概率是恒定的,所以单次抛硬币符合伯努利分布。我们假设硬币正面朝上的概率是p,忽略中间朝上的情况,那么反面朝上的概率是q=(1-p)。我们重复抛n次硬币,其中有k项正面朝上的事件

数学-杂

自闭症网瘾萝莉.ら 提交于 2020-01-11 17:45:01
伯努利数&自然数幂和: 没办法,现在背背好啦。。。 设$S_n$为自然数幂和,有    $S_n=\frac{1}{k+1}*\sum\limits_{i=0}^{k} C_{k+1}^{i} * B_{i} * n^{k+1-i}$ . 有两种伯努利数,区别是$B[1]$的正负。   1>$B[1]=\frac{1}{2}$时,$S_n= \sum\limits_{i=1}^{n} i^{k}$   2>else,$S_n= \sum\limits_{i=0}^{n-1}i^{k}$ 伯努利数的性质,此时$B[1]=-\frac{1}{2}$。   $\sum\limits_{i=0}^{n}C_{n+1}^{i}*B_{i}=0$ 化成   $\sum\limits_{i=0}^{n}{C_{n+1}^{i}*B_{i}}=-(n+1)*B_{i}$ 然后把阶乘拆开就可以分治$FFT$辣,就是伯努利的求法。 来源: https://www.cnblogs.com/2018hzoicyf/p/12180527.html