线性代数学习总结-向量

2019-12-28  本文已影响0人  ZerLon51

起源

线性代数的研究源自对于二维三维空间下向量的研究。

向量

这里只探究在数学中的表示,每个维度用一个分量表示,用列表示如下:

\begin{bmatrix}x_1\\x_2\\...\\x_n\end{bmatrix}

乘法于加法是线性组合最重要的两个概念

向量乘因子cV = \begin{bmatrix}cx_1\\cx_2\\...\\cx_n\end{bmatrix}
等于乘以各分量

向量相加 V + W = \begin{bmatrix}v_1\\v_2\\...\\v_n\end{bmatrix} + \begin{bmatrix}w_1\\w_2\\...\\w_n\end{bmatrix} = \begin{bmatrix}v_1 + w_1\\v_2 + w_2\\...\\v_n + w_n\end{bmatrix}等于各分量相加

将这两个操作组合在一起就是线性组合

cV + dW = c\begin{bmatrix}v_1\\v_2\\...\\v_n\end{bmatrix} + d\begin{bmatrix}w_1\\w_2\\...\\w_n\end{bmatrix} = \begin{bmatrix}cv_1 + dw_1\\cv_2 + dw_2\\...\\cv_n + dw_n\end{bmatrix}

对于二维空间而言,如果v和w不共线,则将填充整个二维空间。
三维空间的话,则未必了。如下所示

p1
可能共面、共线,其线性组合会产生可能填充直线、平面或者整个空间的效果。

点乘v \cdot\ w = \begin{bmatrix}v_1\\v_2\\...\\v_n\end{bmatrix} \cdot\ \begin{bmatrix}w_1\\w_2\\...\\w_n\end{bmatrix} = v_1w_1 + v_2w_2 + ... + v_nw_n = \sum_{k=1}^{n}v_kw_k
即各元素相乘相加之和

长度length = \left||v\right||=\sqrt{v\cdot v}即各元素点乘开平方

两个不同向量的点乘等于二者夹角的cos

\frac{v\cdot w}{\left||v\right||\left||w\right||}=cos\theta

证明嘛如下


p2
矩阵

线性组合cu + dw + ev改写为\begin{bmatrix}u&w&v\end{bmatrix}\begin{bmatrix}c\\d\\e\end{bmatrix}的形式,向量u\quad v\quad w则变为矩阵A的列。系数c\quad d\quad e变为向量x的元素。

Ax = b

A就是矩阵了。

矩阵可逆

首先明确下什么是可逆矩阵,很简单,如下

对于\qquad Ax = b\qquad 有 \qquad Sb=x

A是可逆矩阵。也就是对于Ax的线性组合而言,存在另外一个矩阵S的线性组合Sb,反向求出x

那么什么条件下矩阵是可逆的呢?

牵扯到前面的空间的概念,从三维空间来讲,如果各列之间Independent,则矩阵是可逆的,反之则不可逆。矩阵的两列或者N列存在组合关系,例如

col_i + col_j = col_w

说明col_w是无用的列,Ax=0存在很多解。反之,只有唯一解。

上一篇 下一篇

猜你喜欢

热点阅读