技术栈Math

3Blue1Brown:“线性代数的本质”完整笔记

2018-02-07  本文已影响0人  離枝

一些感想

我最早系统地学习线性代数是在大二时候,当时特意选修了学校物理系开设的4学分的线代,大概也就是比我们自己专业的线代多了一章向量空间的内容,其实最后上完发现,整个课程内容还是偏向于计算,对线性代数的几何直觉少有提起,对线性代数的实际运用更是鲜有涉及。同济的那本薄薄的如同九阴真经一般的教材,把线性代数讲的云里雾里,当时一个人在自习教室度过多少不眠之夜,一点一点去思考其概念定理背后的实际意义,多半也是边猜边想,苦不堪言。直到多年以后,有幸在网上听到了MIT的Strang老师开设的线代公开课,才对一些基础概念渐渐明朗,虽然至今又过去了很多年,但是对一些本质的理解,依然清晰。
不过,仔细想想,国内的教材写的云里雾里,才促使了我自发的思考,如果一切得来太容易,也许就不会那么刻骨铭心。我很早之前就想过这个问题,国内的教科书作者简直就是在下一盘大棋,自己出版的书写的高深莫测,翻译国外的书又翻译的含糊曲折,那么留给学生的只有两条路,要么去看原版的英语书,要么就是自己一点点看云雾缭绕的国产书,边猜边想边证明,不管走哪条路,都能走向成功。
最近,在youtube上看到了3Blue1BrownEssence of linear algebra这门课,有种如获至宝的感觉,整个课程的时间并不长,但是对线性代数的讲解却十分到位,有种浓缩版的Gilbert Strang线代课程的感觉。希望通过这个课程,重温一下Linear Algebra。

Essence of linear algebra preview

Vectors, what even are they?

Linear combinations, span, and basis vectors


把这里的3和-2都看作是一个scalar,它们对原点的单位向量i和j进行scaling



于是,该(3,-2)向量就变成了两个scaling过的单位向量的和。



i和j是xy坐标系中的基础向量(basis vectors)

[其实也可以选择不同的basis vectors,比如说在平面上任意的两个向量作为基,这样得到的scalars的数值是不相同的,但是同样可以通过对这一对任意选择的basis vectors进行linear combination,而得到在平面上的任意向量。详见视频]

The basis of a vector space is a set of linearly independent vectors that span the full spaces.
对于任意一个向量空间而言,它的基是一组相互之间线性独立的向量的集合,这些向量之间通过线性组合,可以span整个向量空间。

Linear transformations and matrices

在做线性变换之前的V向量
在做线性变换之后的V向量

V向量在进行Linear Transformation之后,相当于-1倍的Transformed的i向量与2倍的Transformed的j向量之和,也就是说,在平面上,只需要记录i和j两个basis vectors的变化即可。

It started off as a certain linear combination of i-hat and j-hat and it ends up is that same linear combination of where those two vectors landed.
You can deduce where v must go based only on where i-hat and j-hat each landed.

保留了Linear Transformation之前的网格,可以看到i向量在transformed之后,落在了(1,-2)的位置,而j向量在transformed之后,则落在了(3,0)的位置 运算结果的几何意义 更进一步,该线性变换就是把原来的i(1,0)变化到(1,-2),把原来的j(0,1)变换到(3,0)。那么,原来平面上的每一个点(x,y),通过该变换,可以得到在平面上新的x和y的位置,新旧点之间一一对应 将这个变换提取成一个2*2的矩阵,第一列代表新i的位置,第二列代表新j的位置,新的i和j则是作为新的基 这样的话,如果有一个向量v(5,7),那么它经过通过图中的2*2矩阵描述的线性变换之后的向量,可以由如图示的运算所得到。其几何意义是变换后的i,j作为新的基,保持原来的scalars不变,对新的基进行线性组合 把它抽象化之后,则得到了矩阵乘法的运算公式,并且还可见其几何意义 假如transformed之后的向量是线性相关的,那么所有平面上的点在变换之后就被压缩到了一条直线上

These transformations can be described using only a handful of numbers.
These numbers are the coordinates of where each basis vectors lands.
Matrices give us a language to describe these transformations where the columns represent those coordinates.
Matrix-vector multiplication is just a way to compute what that transformation does to a given vector.
Every time you see a matrix, you can interpret it as a certain transformation of space.
Matrices as transformation of space.

Matrix multiplication as composition

The determinant

Inverse matrices, column space and null space

其中constant matrix A代表的是一种linear transformation,求解的过程,就是要找到这样一个向量x,使得向量x在经过A的linear transformation之后,和v向量重合。When the determinant of this transformation is not zero, it turns out that there will be one and only one vector that lands on v. 要找到这个解向量,可以像倒带一样,对v向量进行A的逆操作。

比如说90度逆时针旋转这个transformation的逆操作就是顺时针旋转90度






determinant不为0,说明该变换不降维,A的逆矩阵存在

This set of all possible outputs for your matrix, whether it's a line, a plane, 3d space, whatever, is called the column space of your matrix.
注意,列空间的对象是矩阵,矩阵的意义是一个Linear Transformation的表示,某个Linear Transformation的所有outputs的集合,称之为该matrix的column space。

矩阵中的列向量,告诉你basis vectors所在的位置 而其列空间就是其basis vectors的span

column space: The column space is the span of the columns of your matrix.
rank: The number of dimensions in the column space.

线性变换的原点位置不会改变,故0向量永远在列空间之中
full rank的矩阵,唯一在变换后落在原点的只有零向量自身

The set of vectors that lands on the origin is called the null space or the kernel of the Matrix.
如果某个向量空间在Linear Transformation之后,存在降维,那么就会有一系列原来不是零向量的向量落到了零向量的位置,所有这些向量的集合构成了null space

对线性方程组而言,当V正好是0向量的时候,则该矩阵A的零空间便包含了该线性方程组全部可能的解 可以通过列空间来判断对应的线性方程组是否有解

Nonsquare matrices as transformations between dimensions

Dot products and duality

Duality: Natural-but-surprising correspondence
the dual of a vector is the linear transformation that it encodes
the dual of a linear transformation from some space to one dimension is a certain vector in that space

假如说有一个线性变换,使得i落在1而j落在-2的位置 而被变换的向量v可以拆解成如图
基于Linearality,在变换之后,v是4倍的变换后的i,3倍变换后的j,由于在同一数轴上,合成后是-2 两个向量的点积的效果和一个向量进行降维transfrom一样 1*2的矩阵和2维向量之间存在关系,一个2d vector有其associated matrix,反之亦然。1*2的矩阵表示某个Linear Transformation,它能够将一个2维的vector变成1维的数字,而这个2维的vector本身是和这个矩阵所表示的Linear Transformation是相关联的 假设有一条相对于正坐标系倾斜的数轴,u落在其1坐标的位置 将正坐标系中的2维向量投射到这个数轴上
其实就相当于定义了一个从2维向量到1维数字的线性变换
u其实还是正坐标系中的一个2维向量,只是正好也落在了这个给定的倾斜数轴之上
可以找到一个1*2的矩阵来描述这个线性变换
要找到这个矩阵,就是要看原来的i和j,在变换后落在了哪个位置,它们最后落点的位置,便是这个1*2矩阵的列
i和u都是单位向量,把i投射到u上,和把u投射到i上是对称的,j同理。那么,原来的i在u上投影后的落点,其实和u在正坐标系x轴上落点的数值是相同的,也就是u的横坐标
这样就建立起u这个向量和[ux uy]这个线性变换之间的关系。So the entries of the 1*2 matrix describing the projection transformation are going to be the coordinates of u-hat。u向量的坐标因为对偶性,和描述线性变换的1*2矩阵的两列是相等的
由于这样的关系,某一个向量和单位向量作点积运算的值,可以解释成将该向量投影到单位向量所在直线上之后所得到的长度。如果某一个向量和非单位向量作点积运算,由于线性变换的特性,可以看成是先在单位向量上进行投影,然后再乘以非单位向量扩大的倍数,也就是该非单位向量的长度
向量也可以理解成某一个线性变换的概念性的缩写记号

Cross products

Change of basis

Eigenvectors and eigenvalues

新得到的矩阵必然是对角的,并且对角元为对应的特征值,因为以特征向量为基向量的变换中,只有缩放的变换,因此i和j在变换后,只是乘上scalar

Abstract vector spaces

函数其实也具有某种向量的性质






选取basis functions,就类似于选取了basis vector
多项式空间的基有无穷多




上一篇 下一篇

猜你喜欢

热点阅读