fisher

R语言3.5 判别分析

孤街浪徒 提交于 2020-03-05 23:00:28
我的梦想就是做一条咸鱼 判别分析 多元中用于判别样本所属类型的一种统计分析方法。在已知的分类之下,对新的样本,可以利用此法选定一判别标准,以判定将该新样品放置于哪个类中。 判别分析的种类:确定性判别(Fisher型判别)、概率性判别(Bayes型判别) 确定性 1.线性判别分析 eg 今天和昨天湿温差x1及气温差x2是预报明天是否下雨的两个重要因子,试建立Fisher线性判别函数,如测得今天x1=8.1,x2=2.0试报明天是雨天还是晴天? 数据: 基本统计分析 箱线图看出,两组湿温的均值差别不大,接下来做t检验 p值>0.05,所以无显著差别 图中气温差有显著的差别 t检验,p值<0.05,有显著区别。 Logistic模型分析 注意G-1,结果发现变量x2对预测有明显影响。 线性判别分析函数lda的用法 lda(formula,data,…) formula形如y~x1+x2+…的公式框架,data数据框 做判别分析时先画图直观看一下数据 图中看可以做判别分析。 做Fisher判别分析需要调用MASS包 Fisher线性判别函数 a1=-0.1035 a2=0.2248 进一步做判断 其中有两个判断错误。 符合率是0.9 两总体距离判别 马氏距离: 判别准则: 当方差相等时,距离判别等于Fisher判别 当方差不相等时不能用Fisher判别要有二次判别函数,qda函数的用法

关于fisher判别的一点理解

两盒软妹~` 提交于 2019-12-25 04:55:28
最近一个朋友问这方面的一些问题,其实之前也就很粗略的看了下fisher,真正帮别人解答问题的时候才知道原来自己也有很多东西不懂。下面小结下自己对fisher判别的理解: 其实fisher和PCA差不多,熟悉PCA的人都知道,PCA其实就是在寻找一个子空间。这个空间怎么来的呢,先求协方差矩阵,然后求这个协方差矩阵的特征空间(特征向量对应的空间),选取最大的特征值对应的特征向量组成特征子空间(比如说k个,相当于这个子空间有k维,每一维代表一个特征,这k个特征基本上可以涵盖90%以上的信息)。那么我们把样本投影在这个子空间,原来那么多维的信息就可以用这k维的信息代替了,也就是说降维了。至于PCA为啥要用求协方差矩阵然后求特征子空间的方法,这个数学上有证明,记得在某篇文章上看过,有兴趣的可以找找,看看证明。 那么fisher空间又是怎么一回事呢,其实fisher判别和PCA是在做类似的一件事,都是在找子空间。不同的是,PCA是找一个低维的子空间,样本投影在这个空间基本不丢失信息。而fisher是寻找这样的一个空间,样本投影在这个空间上,类内距离最小,类间距离最大。那么怎么求这个空间呢,类似于PCA,求最大特征值对应的特征向量组成的空间。 当我们取最大几个特征值对应的特征向量组成特征空间时(这里指出,最佳投影轴的个数d<=c-1,这里c是类别数),最佳投影矩阵如下:

群体遗传参数

徘徊边缘 提交于 2019-12-04 01:56:02
1 Theta (\( \theta \)) 群体遗传学中,在中性 Wright-Fisher 模型 (neutral Wright-Fisher model) 下,尺度参数为 \( \theta = 4N\mu \) 为每世代平均突变数的两倍。其中,\( N \) 为有效群体大小 (effective population size),\( \mu \) 为每世代个体突变率 ( Klein et al. 1999 )。 来源: https://www.cnblogs.com/hjbreg/p/11827535.html

Combining P values using Fisher method matlab?

匿名 (未验证) 提交于 2019-12-03 01:00:01
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: After doing CDF I received following values of P (Sample of them) [0.43 0.12 0.0021 0.05 0.017 0.001 0.025 0.038 0.35 0.29] I want to combine my P values with the help of Fisher method and get the output in the following way: Select first 3 P values and combines them and get result from this (using fisher method). For example, my first combine P value would be : 0.43 ,0.12 0.0021 and my next P combine value would be 0.12, 0.0021 ,0.05 and so on. Can anyone tell me how we can apply Fisher method using MATLAB for this problem? I wasn't able to

Fisher Vector费舍尔向量and FIsher Kernel费舍尔核

喜夏-厌秋 提交于 2019-11-27 08:10:52
之前想了解Fisher Vector(以下简称FV)和 Fisher Kernel(以下简称FK) ,花了很长时间查论文看博客,总算明白了点皮毛,为了以后自己能够记得起来,决定用自己能懂的话码出来。 1、FV的优点 FV和 广泛应用于图像分类、行为识别领域。为什么会广泛应用?肯定是因为FV有别的算法不具备的优点。什么有点呢?下面教科书一般的说明如下: 模式识别方法可以分为生成式方法和判别式方法。生成式注重对类条件概率密度函数的建模,主要反映同类数据之间的相似度,如GMM ;判别式聚焦于直接分类,反映异类数据之间的差异,如SVM 。 二者的优势:1,生成式方法可以处理长度不一的输入数据,2,判别式方法不能处理长度不一的数据但是分类效果较好。 而FV则主要结合两者优势,将生成式模型用于判别式分类器中,这就是FV的优势,那么FV如何拥有这样的优势呢?分析如下: 2、FV的推导 算法的推导过程都很繁复,但是FV的推导真心不算难,仔细学习下,一两天内可以看的很明白,不过知其然未必知其所以然,至于FV是这样推导的没错,但为什么这么推导,现在为止我也没有清晰的认识,反正就是先学着吧。 【样本的处理】 FV本质上是用似然函数的梯度向量来表达一幅图像。这个梯度向量的物理意义就是数据拟合中对参数调优的过程。似然函数是哪里来的呢? (似然函数: 一种关于统计模型参数的函数。给定输出x时