PCA降维
1.相关背景
我们在实际工作中经常需要分析不同组呈现来的成千上百个指标的数据,这些指标之间经常有一些相关性指标,比如厘米和英尺,这样的指标我们只要保留一个就可以,还有一些隐藏的高度相关的特征,以通过降维方法来进行数据预处理。
2. 数据降维
主成分分析(Principal Component Analysis,简称PCA)是一种常用的降维方法,属于无监督学习。所谓降维就是将数据指标从高维度减到低维度,因为低维度的数据有如下优点:
1) 更容易进行数据分析和数据可视化
2)更容易进行数据存储
3)降低算法的运行成本
3.PCA原理
样本点分布在正交属性空间中,我们如何找到一个超平面(直线的高维推广)对所有样本点最合适的表达?
- 1.最近重构性:样本点到这个超平面的距离足够近(类似线性回归)
- 2.最大可分性:样本点到这个超平面的投影尽可能分开(方差最大化)
以上两种方式得到的主成分分析的推导是等价的,下面从”最大可分析“进行推导PCA的过程。
3.1 向量的表示及基变换
3.1.1 向量的內积
。
几何意义:a向量在b向量上的投影数乘b向量的模,也等于b向量在a向量上的投影数乘a向量的模,投影有正负,取决于两个向量的夹角是否大于90度,如果大于90度则为负。
根据几何意义,假设将的模设为1,那么,那么此时代表的几何意义就是向量a在向量b上的投影。接下来引入”基”
3.1.2 基
(3,2)可以表示为向量,实际表示线性组合:。,实际代表的是一个向量(3,2)在(1,0)所在直线上的投影(就是我们一般称为的x轴)和向量(3,2)在(0,1)所在直线上的投影(y轴),我们把(1,0)和(0,1)叫做二维空间的一组基。
类似(1,0,0) (0,1,0)和(0,0,1)叫做三维空间的一组正交基,高维空间类似推理。
我们之所以选(1,0)和(0,1)作为“基”,是因为它们分别是x和y轴上正方向上的单位向量,这能够使得我们的二维平面上的点的坐标和向量一一对应,便于分析。
实际任何两个线性无关的向量都可以表示一组基,所谓线性无关即向量不能相互表示,对于二维来说两个向量不在一条直线上。
例如(1,1)和(-1,1)也可以成为一组基,但如果将基的模设为1,那么向量与基的内积就是在该基上的坐标。可以把上面的基单位化变成。
3.1.3 矩阵表示基变换
用上面的例子通过矩阵形式进行基变换。
从上面的形式可以看出,等式左侧的左矩阵的每一个行代表一个基,(3,2)代表需要变换的数据点,经过矩阵变换后的数值就成了新的基的坐标。
推广到多个样本集中就是将右边矩阵的每一列列向量(:第i个样本数据)变换到左边矩阵的每一列行向量()所代表的的基中,如下图所示。
3.2 协方差矩阵及优化目标
3.2.1 方差
如果选取的基的数量小于原始样本集的维度,通过基变换就能达到降维的效果。那如何才能选取我们需要的基,我们的目标是降维后的数据B最大程度保留原有数据A的信息。更直观的说就是投影后的数据B尽可能的分散,所以可以使得数据B的各个维度的方差尽可能的大,方差公式如下:
我们中心化后,均值E[X] = 0,那么公式如下
3.2.2 协方差
但是如果单纯的追求使得数据B的方差最大的基方向,后续方向几乎和第一个方向重合在一起。
所以为了让两个维度表示更多的原始信息,我们需要降维后的字段之间不存在相关性,因为相关性代表两个字段之间存在着重复的信息。协方差是表示两个维度的相关性,公式如下:
因为中心化,E[X] = 0
3.2.3 优化目标
综上,我们的目标变成:寻找K个单位正交基,使得原始数据映射到这组正交基上后的新数据的各个维度之间的协方差为0,各个维度的方差尽可能的大(取最大的K个方差)
这样的目标正好可以用协方差矩阵
3.2.4 协方差矩阵
任意一个mn的矩阵Z, 正好是协方差矩阵,可以表示我们的优化目标,为了方便,设Z为一个22的矩阵,那么
3.2.5 优化目标转成协方差矩阵
我们的优化目标是将降维后的矩阵方差最大协方差为0。设原始数据对应矩阵为X(行向量表示每个维度即特征,列向量表示每个样本的所有特征),P是一组基按行组成的矩阵,设Y = PX,则Y为X对P做基变换后的数据,设Y的协方差为D,那么:
– 此时,发现 正好是原始数据矩阵X的协方差矩阵,设原始矩阵的协方差矩阵为C。
这样问题就转换成了求一个矩阵P能使得原始矩阵X的协方差矩阵C对角化,且对角元素从大到小排列,取P的前K行就是需要寻找的基矩阵,用基矩阵右乘X就将X从N维降到K维上
3.2.6 协方差矩阵对角化
定理: M的特征向量经过施密特正交化后构成E,E的特征向量位置与位置一一对应。
- 原始矩阵X经过中心化,协方差矩阵C的特征向量之间正交,不需要经过正交化
所以经过中心化的原始数据X构成的协方差矩阵C的特征向量按行构成的矩阵P(相当于定理中的), 则为对角阵。如果将特征向量根据特征值从大到小排列构成矩阵P,则对角阵构成的对角阵D的主对角线值为从上到下排列。最后,取P的前K行构成新矩阵Q再右乘X就将原始数据X降低到K维。
4 算法与实例
4.1 PCA算法实现流程
设有m条n个维度(特征)的数据
- 1 构建原始矩阵X (n行m列,)
- 2 中心化(每行减去对应行的均值,即每个特征中心化)
- 3 求协方差矩阵
- 4 求出协方差矩阵C的特征向量及特征值并标准化
- 5 按特征值大小将特征向量从上到下按行排列成矩阵P
- 6 降维(取前k行组成矩阵P1,Y1 = P1X 即为降到k维后的数据)
4.2 实例
- 2)直接中心化的一组数据X
- 3)求协方差矩阵
- 4)计算C的特征值及特征向量
- 5)构建矩阵P
验证特征向量与C可以对角化 - 6)取P的第一行构建矩阵P1进行降维Y = P1X
5 问题
- 为什么取特征值大的特征向量构成的矩阵Q就是我们需要的降维矩阵?
- 设特征值 为协方差矩阵C的一个特征值和与之对应的特征向量,那么,因为等式右边为特征值与对应特征向量的乘积()表示在向量上的拉伸,值越大伸长越大,所以等式左边矩阵C与它的特征向量的乘积(),也表示在上的拉伸,如果越大拉伸就越大,方差就越大,所以降维后的数据也就方差最大(这个所以应该是有一定关系,因为C是X的协方差矩阵)。
- ,因为D中主对角线上的值代表了方差的大小,其实也是协方差矩阵的特征向量对应的特征值,所以取最大特征值对应的特征向量就能获得降维后的方差最大
SVD
1. 相关背景
上面PCA方法是通过对原始数据矩阵X的协方差矩阵进行特征值分解的方法获得特征向量作为新的基,但是实际生产中可以直接对原始阵X进行svd分解获得基,因为这样更快速。
2. SVD分解
定义:一个m×n的原始数据矩阵X可以分解为 ,其中U和V均为单位正交阵,U为左奇异矩阵,V为右奇异矩阵,为对角阵,对角线上的值称为奇异值,为pca中特征值的平方根,矩阵的维度分别为
正常求上面的𝑈,𝑉,Σ不便于求,我们可以利用如下性质可以获得,,并不是使用以下方法,因为以下方法还是特征值分解
,
pca特征值分解和svd在numpy中的比较
特征值分解
X = np.mat("-1 -1 0 2 0; -2 0 0 1 1")
C = X@X.T # 没有除样本总量5,不会影响特征向量,只会影响特征值的大小
np.linalg.eig(C)
(array([10., 2.]),
matrix([[ 0.70710678, -0.70710678],
[ 0.70710678, 0.70710678]]))
svd分解
U,S,V = np.linalg.svd(X)
U,S,V
(matrix([[-0.70710678, -0.70710678],
[-0.70710678, 0.70710678]]),
array([3.16227766, 1.41421356]),
matrix([[ 0.67082039, 0.2236068 , 0. , -0.67082039, -0.2236068 ],
[-0.5 , 0.5 , 0. , -0.5 , 0.5 ],
[ 0. , 0. , 1. , 0. , 0. ],
[ 0.37894652, 0.71585306, 0. , 0.54739979, 0.21049325],
[ 0.39547381, -0.43307551, 0. , -0.01880085, 0.80974848]]))
特征向量为返回结果的matrix中的每一列,svd中的U就是我们需要的特征向量。
来源:CSDN
作者:旅行耗
链接:https://blog.csdn.net/qq_34964399/article/details/103293952