SVD及其在PCA中的应用
正在网上各种学习,把学到的分散的内容暂时总结在此处。可能有些错误,会在发现后改正。
摘自:https://baijiahao.baidu.com/s?id=1628584413921520630&wfr=spider&for=pc
一、基础知识
1.矩阵 x 向量
(一)用一个矩阵乘以向量,如Ax,表述如下:
如果把矩阵的行解释为坐标系的基向量,矩阵与向量相乘(或向量与矩阵相乘)相当于执行一次坐标转换,Ax=y可表述为x经矩阵A变换后变为y。
(二)相当于对该向量做了一个线性变换。在这个变换中,大部分的向量都发生了偏移,脱离了原“轨道”。如下图,向量 在矩阵 的作用下,线性变换为另一个向量。和明显不在一条直线上,发生了偏移。
那有没有一个矩阵,恰好使线性变换之后新向量和原来的向量在同一条直线上呢?我们再看一个例子:
4afbfbedab64034f94b136a313b8f5350b551d93.jpeg
如上图,还是向量,此时线性变换的矩阵变成了 ,产生的新向量跟还在同一条直线上。我们用公式可以表示成:
(1)
2. 方阵: 特征值、特征向量、特征方程
也就是说,矩阵对向量所做的线性变换,就相当于对向量做了拉伸或者压缩,就是拉伸或者缩放的倍数。此时,我们将称作特征值,而向量称作特征向量。(不是任何一个矩阵都有特征值和特征向量)
再仔细观察(1)式,是否可以把等式两边的消去,得到呢?首先,涉及到向量的乘法是不可以直接消元的;其次,是一个矩阵,是一个标量,这俩是不可能相等的。
这时,单位矩阵派上用场了。已知:,可以在(1)式的右边乘以,得到:, 把等式右边的项移到左边,再提取出公共的,可以得到:
(2)
Note: 等式右边的是一个向量,而不是标量。(2)式说明,矩阵乘以向量,结果是向量(向量经过一个线性变换后,被压缩成了一个点)。
因为:向量是非向量
所以:求方程组的非零解 (非向量就是齐次线性方程组的解)
即约束条件比未知数要少
所以:(降秩) <=> 降秩等价于行列式为0
解行列式,求出
特征方程:
(
需要学习
)
所以: *个中可能有相等的
Notes:
1. 矩阵的迹
2.
3.设为特征值,对应特征向量为的非零解
(一个齐次线性方程组如果有非零解,有无数个,所以任何一个特征值,有无数个特征向量,但我只要线性无关的,只要这个方程组的基础解系)
3.矩阵相似
A、B为阶方阵,若存在可逆阵,使,称A、B相似,记 ~ 。
Note:
(一个矩阵的左边或右边乘以一个可逆矩阵,矩阵的秩不变)
1.If A~B, 则,反之不一定成立(因为两个矩阵相似条件极其苛刻)。
2.A~A, A~B => B~A, AB、BC => A~C
3.A~B => =,反之不一定成立。
4..A~B => = => 和的特征值相同 => tr(A)=tr(B),=
(相似矩阵的特征值相同,行列式相同)
性质
(一)、
1., 两个不相等的特征值对应的线性无关的特征向量, 继续线性无关 >>> 应用:P=(), P可逆(因为所有特征向量拼起来线性无关,向量组的秩为3,又三秩相等,矩阵的秩=列秩,矩阵满秩=矩阵可逆)。
可逆
*满秩的矩阵才能对角化;有几个就有几个特征向量,其中可以相等。
2.A可逆时,共用特征向量,特征值不一样但可以换算
3., 则可相似对角化的充要条件是有个线性无关的特征向量
(二)、
1. 实对称矩阵,不同特征值对应的特征向量两两正交。
两个列向量, 左转右不转是数=内积;
内积可以交换
2.实对称矩阵的特征值一定是实数
3.实对称矩阵一定可以对角化,一般的矩阵不一定可以对角化。
4.如果一个向量组非零且两两正交,则线性无关
4.正交化、规范化
施密特正交化:
正交化:对线性无关的特征向量,进行加工,变成两两正交;
单位化:长度为1,
5.正交矩阵(单位且正交)
(一) - 阶方阵, 如果,称为正交阵。
(二)性质:
1.若, 则
2.若
和互为倒数 正交阵的行列式不是1就是-1
(矩阵乘积的行列式等于矩阵行列式的乘积)(拉普拉斯法则)
(三)正交阵等价条件:
Th1. 若), 两两正交且单位
则有
(行列式不为0的方阵可逆)
(实对称矩阵一定可以对角化)
(如果不是实对称矩阵,求特征值。如果特征值都是单值,或每个特征值的重数与无关特征向量个数一致)
(n接矩阵A可对角化 充要条件 A存在n个线性无关的特征向量)
(不同特征值对应的特征向量线性无关/正交)
6.二次型
1. 二次型
标准二次型:为对角阵;
非标准二次型:为实对称矩阵,但不对角;
把非标转化成标,把实对称矩阵转化成对角阵,即实对称矩阵对角化。
2.标准化:把非标化成标
如果存在可逆阵,令,
则且是对角阵,
则
7.矩阵合同
如果,则合同。
1.配方法: 不需要验证,得到的肯定是对角阵
2.正交变换法:
(1)矩阵化
(2)求矩阵的特征值
(3)求出每个特征值对应的线性无关的特征向量
(4)实对称矩阵,正交化单位化,找正交阵
(5)对X进行正交变换 -->-->
8.特征分解(eigenvalue decomposition):能相似对角化的方阵(要求高)
是的特征向量组成的矩阵,是的特征值组成的对角阵。
二、SVD(singular value decomposition)
: 矩阵的奇异值分解,实质上是把矩阵分解为奇异值对应的特征向量组成的矩阵和奇异值组成的矩阵的乘积的形式。一种矩阵分解的方法,可以直接拿来降维。
降维:使矩阵的秩变小,而不是使矩阵变小。舍弃SVD结果中由奇异值组成的矩阵中数值很小的一部分奇异值,从而降低新得到矩阵的秩,同时保证得到的新矩阵和原矩阵的差异在一定范围内。
假设一个的秩是,则存在如下形式的奇异值分解:
U和V是酉矩阵, 的主轴是奇异值。
分解行数不等于列数的矩阵,无需多余步骤一步出结果,但是要分清楚谁是样本谁是特征。