矩阵分解

2019-11-05  本文已影响0人  名字都被取完了妈个鸡

转载自视觉SLAM中的数学

矩阵就是一个给定的线性变换,特征向量描述了这个线性变换的主要方向,特征值描述了特征向量的长度在该线性变换下缩放的比例。

为什么要进行矩阵分解

  1. 矩阵分解可以减少存储空间,减少问题处理的计算量,从而高效地解决目标问题。
  2. 矩阵分解可以提高算法的数值稳定性。

矩阵与矩阵分解的几何意义

在矩阵分解中,我们常常期望将矩阵分解为正交矩阵、对角矩阵及上/下三角矩阵的乘积。

以三维矩阵为例,一个普通矩阵的几何意义是对坐标进行某种线性变换,而正交矩阵的几何意义是坐标的旋转,对角矩阵的几何意义是坐标的缩放,三角矩阵的几何意义是对坐标的切边。

因此,对矩阵分解的几何意义就是将这种变换分解为缩放、切边和旋转的过程。

常用的矩阵分解

LU三角分解
LDLT分解
LLT分解
QR分解
SVD分解
特征值分解
(坑待填。。。)

参考资料

【1】视觉SLAM中的数学
【2】 机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
【3】正定矩阵的Cholesky分解

上一篇 下一篇

猜你喜欢

热点阅读