Math机器学习

线性代数的本质

2017-06-30  本文已影响219人  骑马倚斜桥w

机器学习之线性代数回顾篇

引言

最近在研究机器学习的一些东西,发现有些东西涉及到微积分,线性代数,概率论与数理统计,如果不懂的话感觉不明所以,所以在此准备出一个系列回顾这三门数学,不求手算偏微分方程,矩阵乘法,但求明白这些数学概念的本质,从直观上能理解数学概念,能明白代码究竟在干些什么。

向量是什么

向量是个很神秘的东西,高中我们学到向量是具有方向的标量,是坐标系中的一个箭头,后来大学学到向量是一组数,后来我明白了,向量是线性空间的一个对象,不论是一个箭头还是一组数都是这个对象的表示方法,就像我们人是三维欧式空间的一个对象。

矩阵是什么

  1. a向量经过M变换之后成为b向量
  2. 一个向量,在I坐标系下表示为b,在M坐标系下表示为a

行列式是什么

非方阵

之前我们讲了维度间变换的概念,怎么去衡量维度变换这个概念呢,就发明了秩。秩就代表着经过这个矩阵变换之后,空间的维度,同时也可以理解为一个矩阵的列向量所张成的空间。比如一个3*3的方阵,现在它的秩为2,说明经过这个方阵变换之后,一个三维空间被压扁为一个二维空间,降维了,这个时候去求它的行列式,一定为0.

逆矩阵,零空间

特征向量与特征值
函数
在v + w =a 时
满足T(v) + T(w) = T(v + w)
满足T(kV) = kT(v)
上一篇 下一篇

猜你喜欢

热点阅读