LDA
线性判别分析(LDA)是一种常用的保持类别可分性的特征提取方法。LDA的投影函数通常是通过最大化类间协方差和同时最小化类内协方差得到的。它被广泛应用于信息处理的许多领域,如机器学习、数据挖掘、信息检索和模式识别等。然而,LDA的计算涉及到密集矩阵的特征分解,这在时间和内存上都很昂贵。具体来说,LDA具有O(m n t+t3)时间复杂度,需要O(m n+mt+nt)内存,其中m是样本数,n是特征数,t=min(m,n)。当m和n都较大时,应用LDA是不可行的。
基于统计分析的子空间方法
分析人脸识别的主流方法是基于统计分析的子空间方法
人脸的图像维数通常很大,而其在高维空间分布很不紧凑,不利于分类,而且计算复杂度很大,因此通常将图像投影到低维的子空间进行判别。
子空间方法是根据一定目标来找线性或者非线性的变换,使原始信号压缩到一个低维的子空间中,让数据在该子空间的分布更加紧凑为数据的描述提供更好的手段,并且使其计算复杂度降低。
子空间有向图嵌入
用一个低维向量来表示图上的点,此向量保持了数据点间的相似度,此相识度可通过具有数据点集统计或者几何性的相似矩阵来描述。
点的向量表达式由一定约束条件下拉普拉斯矩阵的主要特征值对应的特征向量确定。
谱方法理论
谱方法是数学领域里一种经典的分析和代数方法,在高维数据的低维表示和聚类问题中有着广泛的应用。
算法首先会根据给定的样本数据集定义一个描述成对数据点相似度的关系矩阵,并计算矩阵的特征值和特征向量
然后选择合适的**特征向量,**投影得到的数据的低维嵌入
如果相似度矩阵定义在一个给定的图上,比如为图上的邻接矩阵、Laplacian矩阵等,则称为谱图方法
图嵌入降维算法的结构和主要方法
由于特征维m通常非常大,这使得我们必须对数据进行降维处理。
降维的目的就是找到一个映射函数 F:x→y
函数可以是显式的(或是隐式的),线性的(或者非线性的),选取的a为向量表示,b为矩阵表示
谱回归算法
谱方法是降维和流形学习方法中强大的工具。这些方法运用数据仿射后的特征向量来表示信息特征,从而达到把高维数据用低维数据表示的目的,谱回归分析算法将求解特征函数的问题放在一个回归模型中,避免了解密度矩阵的特征值问题。
我们的算法是从LDA问题的图嵌入角度发展而来的。将谱图分析和回归分析相结合,为判别分析提供了一种有效的方法。具体来说,SRDA只需求解一组正则化最小二乘问题,不需要特征向量计算,节省了大量的时间和内存。据我们所知,我们提出的SRDA算法是第一个能够处理大规模高维数据进行判别分析的算法。大量的实验结果表明,在效率和有效性方面,我们的方法始终优于其他最新的LDA扩展
来源:CSDN
作者:GouZe1
链接:https://blog.csdn.net/weixin_43734271/article/details/104573693