特征值、特征向量和奇异值

2019-07-10  本文已影响0人  瞎了吗

特征值和特征向量

1 特征值分解与特征向量

A\nu = \lambda \nu

\lambda为特征向量\vec{v}对应的特征值。特征值分解是将一个矩阵分解为如下形式:

A=Q\sum Q^{-1}

其中,Q是这个矩阵A的特征向量组成的矩阵,\sum是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。也就是说矩阵A的信息可以由其特征值和特征向量表示。

2 奇异值与特征值有什么关系

那么奇异值和特征值是怎么对应起来的呢?我们将一个矩阵A的转置乘以A,并对A^TA​求特征值,则有下面的形式:

(A^TA)V = \lambda V

这里V​就是上面的右奇异向量,另外还有:

\sigma_i = \sqrt{\lambda_i}, u_i=\frac{1}{\sigma_i}A\mu_i

这里的\sigma​就是奇异值,u​就是上面说的左奇异向量。【证明那个哥们也没给】
​奇异值\sigma​跟特征值类似,在矩阵\sum​中也是从大到小排列,而且\sigma​的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前r​r​远小于m、n​)个的奇异值来近似描述矩阵,即部分奇异值分解:
A_{m\times n}\approx U_{m \times r}\sum_{r\times r}V_{r \times n}^T

右边的三个矩阵相乘的结果将会是一个接近于A的矩阵,在这儿,r越接近于n,则相乘的结果越接近于A

上一篇 下一篇

猜你喜欢

热点阅读