文章目录
- 什么是向量
- 1. 物理视角:向量就是空间中的箭头
- 2. 计算机视角:向量是有序的数字列表,根据顺序定义属性或抽象含义
- 3. 计算机学生视角
- 4. 数学系学生视角
- 5. 二维向量
- 6. 三维向量
- 7. 向量相加的本质是维度相加
- 8. 向量的数乘本质是每个维度分量与标量相乘,即方向不变,长度改变(正负)
- 12.Linearly dependent 线性相关
- 13.Linearly independent 线性无关
- 14. Linear transformation 线性变换
- 常用变换矩阵体会
- 复合矩阵变换
- 三维空间矩阵变换 the third demension
- 计算行列式
- 非方阵矩阵
- 内积
- 降维的本质
- 矩阵行列式求解方法
- 矩阵应用
- 基变换:
- 特征值
什么是向量
一个矩阵空间的基底拥有的维度等同于该空间的满秩维度.
矩阵表示向量时一个列就是一基底,就是一矩阵维度,当然基底的维度一定是直角坐标系的维度.
**基底从左到右依次为 i ⃗ \vec i ij ⃗ \vec j j
k ⃗ \vec k k
基底的基底从上到下分别是x,y,z.即一个矩阵,横着依次从左到右是
i ⃗ \vec i ij ⃗ \vec j j
k ⃗ \vec k k`,竖着从上到下依次是x,y,z;
想要降维(行列式为0),可以直接划掉一个列,或每个基底分别划掉一个轴(矩阵上划掉一个行).
即只要一个矩阵能直接划掉一个行或列而毫不影响结果,那么它的行列式就是0
1. 物理视角:向量就是空间中的箭头
只有长度与方向
2. 计算机视角:向量是有序的数字列表,根据顺序定义属性或抽象含义
对房屋建模,抽象房屋的属性,如房价和面积,写成这种形式
[
m
2
¥
]
\begin{bmatrix} {m^2}\\{¥}\\\end{bmatrix}
[m2¥]
此时在计算机系学生的眼里:
[
129
27000
]
\begin{bmatrix} 129\\27000\\\end{bmatrix}
[12927000]`这个列表代表着一套129平方,27000一平m的房子.
3. 计算机学生视角
此时向量不过是列表的一个花俏说法,只不过因为list.len==2,才称它是二维向量.
4. 数学系学生视角
就是坐标系的变换与运算.
向量通常以原点为起点,实现向量加法+向量数乘.
例一:
[
13
12
]
+
[
11
7
]
=
[
24
19
]
\begin{bmatrix} {13}\\{12}\\\end{bmatrix}+\begin{bmatrix} {11}\\{7}\\\end{bmatrix}=\begin{bmatrix} {24}\\{19}\\\end{bmatrix}
[1312]+[117]=[2419]例二:
2
∗
[
5
8
]
=
[
10
16
]
2*\begin{bmatrix} {5}\\{8}\\\end{bmatrix}=\begin{bmatrix} {10}\\{16}\\\end{bmatrix}
2∗[58]=[1016]`
5. 二维向量
每一个二维向量会给出唯一的平面方向与长度,每一个向量恰好有唯一一对数表示
6. 三维向量
每个三维向量都有一个唯一的一组三元序列对应
7. 向量相加的本质是维度相加
8. 向量的数乘本质是每个维度分量与标量相乘,即方向不变,长度改变(正负)
## 9. 线性代数为大数据提供批量处理与可视化的理论依据
大数据们
线性视图
## 10. 向量的形成
所有二维向量都是由一组基底(
i
⃗
,
j
⃗
\vec{i},\vec{j}
i,j`)的两个分量拉伸变换而来.
一般取
i
⃗
\vec i
i为x轴的
1
⃗
\vec 1
1,取
j
⃗
\vec j
j为y轴的
1
⃗
\vec 1
1`
所以 向量vector = scalar_1 x basis_1 + scalar_2 x basis_2
## 11. 任意基底
What if we choose different basis vectors?
我们要知道,正是有了通用的统一的基底,我们才能在世界任何地方把一组数字转换成一个向量
总结: 向量依赖于基底,基底乘上不同线性标量构成的向量集合称为张成的空间.注:标量必须是实数
画图
为画图方便,先定义坐标原点,再依据向量确定该向量的终点.打点
发现
三元向量保持一个向量不变,只变其中两个向量,则张成的空间是一个平面
当我们缩放第三个分量时,前两个分量张成的平面将沿第三个分量的缩放方向来回扫动,从而扫过整个空间
12.Linearly dependent 线性相关
-
上图当第三方向量刚好落在前两个向量组成的平面上,或 ( i ⃗ , j ⃗ ) (\vec i,\vec j) (i,j)`两个向量落在同一条直线上.
-
此时抽掉其中一个向量也不会影响张成的空间,则称向量 i ⃗ \vec i i
与
j ⃗ \vec j j或向量
k ⃗ \vec k k与
( i ⃗ , j ⃗ ) (\vec i,\vec j) (i,j)`是线性相关的
13.Linearly independent 线性无关
- 新添加的向量能给张成的空间带来新维度
- 故:向量的基底就是可以张成该空间的所有线性无关向量的集合
- 所以:向量的一组基底就是张成空间的基底的最小集
14. Linear transformation 线性变换
不死记硬背理解矩阵向量乘法
[
1
−
3
2
4
]
[
5
7
]
=
[
(
1
)
(
5
)
+
(
−
3
)
(
7
)
(
2
)
(
5
)
+
(
4
)
(
7
)
]
\begin{bmatrix} {1}&-3\\{2}&4\\\end{bmatrix}\begin{bmatrix} {5}\\{7}\\\end{bmatrix}=\begin{bmatrix} {(1)(5)+(-3)(7)}\\{(2)(5)+(4)(7)}\\\end{bmatrix}
[12−34][57]=[(1)(5)+(−3)(7)(2)(5)+(4)(7)]`
上述表达式蕴涵了一种线性变换思想,本质起始就是func()的一种
变换;暗示了我们向量函数应当从空间运动角度理解,本质是如何把向量甲通过与另一向量规则作用变换成乙向量
线性变换定义:
- 直线在空间变换后仍是直线
- 原点始终保持固定
- 典型:保持网格线平行且等距分布的变换
如平面直角坐标系 - 定义向量
x
,
y
⃗
\vec{x,y}
x,y
二维矩阵满足
[ x y ] \begin{bmatrix} {x}\\{y}\\\end{bmatrix} [xy]如
[ − 1 2 ] \begin{bmatrix} {-1}\\{2}\\\end{bmatrix} [−12]就表示
v ⃗ = − 1 i ⃗ + 2 j ⃗ \vec v=-1\vec i+2\vec j v=−1i+2j.
我们发现向量 v ⃗ \vec v v是向量( i ⃗ , j ⃗ \vec i,\vec j i,j)的一个特定的线性组合.看图可知,我们在只知道 i ⃗ \vec i i与
j ⃗ \vec j j的落脚点的情况下,一定能根据线性组合得到
v ⃗ \vec v v`的落脚点
矩阵乘法的意义
任意一组基底,如基底 i ⃗ \vec i i
(1,-2)+基底
j ⃗ \vec j j(3,0)组成的矩阵乘以线性组合C = x
i ⃗ \vec i i+y
j ⃗ \vec j j`里的系数(x,y)的结果是C的值(一个二维向量)
式子为C =
[
1
3
−
2
0
]
\begin{bmatrix} 1&3\\-2&0\\\end{bmatrix}
[1−230]
[
x
y
]
\begin{bmatrix} {x}\\{y}\\\end{bmatrix}
[xy]
= x
[
1
−
2
]
\begin{bmatrix} {1}\\{-2}\\\end{bmatrix}
[1−2]+y
[
3
0
]
\begin{bmatrix} {3}\\{0}\\\end{bmatrix}
[30]所以C =
[
1
x
+
3
y
−
2
x
+
0
y
]
\begin{bmatrix} {1x+3y}\\{-2x+0y}\\\end{bmatrix}
[1x+3y−2x+0y]`
-
此处(x,y)是一个平面直角坐标系向量,是任意初始向量
-
基底( i ⃗ , j ⃗ \vec i,\vec j i,j`)就是张量规则,它们所构成的张量空间就是线性空间,把(x,y)放入该空间,(x,y)会自动被改空间变换
-
(x,y)放入张量空间就是将(x,y)与该空间的张量规则(基底)相乘 [ x y ] \begin{bmatrix} {x}\\{y}\\\end{bmatrix} [xy]`*[i,j],所得的值就是向量(x,y)经线性变换后,符合该空间张量规则的形式
注意:线性空间里,只要基底不同张量空间就不同,就不是同一个平面.线性相关不是好事情.
总结:矩阵,就是一个有张量规则的线性空间,任何平面直角坐标系向量进来,就会把变换发生到这个向量上.我们可以依据这个特点,主动把一些向量放入到矩阵空间中(与矩阵相乘),从而得到该向量被矩阵空间变换过后的结果.
矩阵的作用就是一个函数,输入一个向量,变换后,输出一个向量
常用变换矩阵体会
矩阵的左边列始终表示基底,右边列始终表示基底j
所以,看矩阵就能直接看出它的直观效果
-
逆时针90º旋转矩阵
[ 0 − 1 1 0 ] \begin{bmatrix} 0&-1\\1&0\\\end{bmatrix} [01−10]` -
顺时针45º剪切矩阵 [ 0 − 1 1 0 ] \begin{bmatrix} 0&-1\\1&0\\\end{bmatrix} [01−10]`
-
复合矩阵,即旋转又剪切 [ 1 − 1 1 0 ] \begin{bmatrix} 1&-1\\1&0\\\end{bmatrix} [11−10]`可以直接画出来哦
-
注意两个矩阵相乘再乘以一个向量永远有独特的几何意义,越靠近向量的矩阵先发生作用
-
该规则起源于函数计算,如f(g(x)也是从右往左靠近x的函数先发生作用
-
矩阵变换
[ 0 − 1 1 0 ] \begin{bmatrix} 0&-1\\1&0\\\end{bmatrix} [01−10][ 2 3 ] \begin{bmatrix} 2\\3\\\end{bmatrix} [23]
,带基底把
[ 2 3 ] \begin{bmatrix} 2\\3\\\end{bmatrix} [23]`看出2i与3j,然后i经历从(1,0)到(0,1)的变换,再乘以2的模作拉伸,j经历从(0,1)到(-1,0)的变换,再乘以3作拉伸 -
即 [ i j 0 − 1 1 0 ] \begin{bmatrix} i&j\\0&-1\\1&0\\\end{bmatrix} ⎣⎡i01j−10⎦⎤
[ 2 i 3 j ] \begin{bmatrix} 2i\\3j\\\end{bmatrix} [2i3j]`等于2i+3j=新向量
总结
矩阵*向量=向量.等价于f(x) = y
,线性变换时,矩阵是两个向量 分别是$\vec i$
(x1.y1),$\vec j$
(x2,y2),向量拆成两个系数(模),在数学运算时千万不要把它看成向量,它就是一个有两个数的列表.
缩放空间基底再相加
分别乘以i,j.把拉伸后的i,j两向量相加得到一个$\begin{bmatrix} 1\\0\\\end{bmatrix}$
形式的向量
复合矩阵变换
两个矩阵空间张量规则叠加(变换先后发生)会发生什么事?
形成一个新的矩阵空间(线性空间)
这个空间的张量规则怎么来的?矩阵相乘而得,当然也可以通过画图直接得
C=A*B=
[
i
2
j
2
0
−
1
1
0
]
\begin{bmatrix} i_2&j_2\\0&-1\\1&0\\\end{bmatrix}
⎣⎡i201j2−10⎦⎤
[
i
1
j
1
0
−
1
1
0
]
\begin{bmatrix} i_1&j_1\\0&-1\\1&0\\\end{bmatrix}
⎣⎡i101j1−10⎦⎤`
分析:C = [
i
3
i_3
i3
j
3
j_3
j3]
先将
i
⃗
1
\vec i_1
i1(x1,y1)放入矩阵A中变换得到C的
i
⃗
3
\vec i_3
i3,再将
i
⃗
2
\vec i_2
i2(x2,y2)放入矩阵A中变换得到C的
j
⃗
3
\vec j_3
j3
即C = [A*
i
⃗
1
\vec i_1
i1A*
j
⃗
1
\vec j_1
j1] = [新
i
⃗
\vec i
i新
j
⃗
\vec j
j]=[0*$
[
0
1
]
\begin{bmatrix} 0\\1\\\end{bmatrix}
[01]+1*
[
−
1
0
]
\begin{bmatrix} -1\\0\\\end{bmatrix}
[−10]` -1*
[
0
1
]
\begin{bmatrix} 0\\1\\\end{bmatrix}
[01]+0*
[
−
1
0
]
\begin{bmatrix} -1\\0\\\end{bmatrix}
[−10]] =
[
−
1
0
0
−
1
]
\begin{bmatrix} -1&0\\0&-1\\\end{bmatrix}
[−100−1]
graph TB
已知B矩阵是两向量矩阵,A矩阵是线性空间,也是两向量矩阵
矩阵A乘矩阵B-->A(把B的两向量)
A-->|放到|B(线性空间A内)
B-->C(做线性变换)
C-->两向量经线性变换结果当然还是两向量
总结
-
真正运算时,不用管左边的线性空间的两个基底是怎么从平面直角坐标系转化来的.
-
就把它们当现有基底,把向量当模,花式拉伸线性空间的基底,得到一组二维列表,而这个二维列表就是在该空间内线性变换后的向量.
-
矩阵满足结合律,当然满足,(AB)C与A(BC)的三个矩阵相继作用变换的顺序是完全相同的
-
良好的几何解释 > 象征性的计算证明
三维空间矩阵变换 the third demension
## 行列式 (行列面积式)
一个矩阵的行列式 det(矩阵)就是求一个矩阵变换后相对于直角基矩阵扩大的面积倍数
det( [ 3 2 0 2 ] \begin{bmatrix} 3&2\\0&2\\\end{bmatrix} [3022]`)=6
det( [ 0.0 2.0 − 1.5 1.0 ] \begin{bmatrix} 0.0&2.0\\-1.5&1.0\\\end{bmatrix} [0.0−1.52.01.0]`)
很明显:det( [ 4 2 2 1 ] \begin{bmatrix} 4&2\\2&1\\\end{bmatrix} [4221]`) 矩阵是线性相关,在一条直线上.行列式为0
总结
矩阵的行列式为0,意味着矩阵空间的维度降低
矩阵空间发生翻转,即
j
⃗
\vec j
j在
i
⃗
\vec i
i`右边,行列式为负
对三维:行列式表示体积缩放,正数表示右手定则食指为x轴,负数表示左手定则
计算行列式
行列式就是矩阵基底所成的四边形的面积,很明显只有方阵才有矩阵.
det( [ 3 0 0 2 ] \begin{bmatrix} 3&0\\0&2\\\end{bmatrix} [3002]`) = 3*2 -0*0 = 6
该矩阵中的3
表示矩阵面积在x轴上的延伸,2
表示矩阵面积在y轴上的延伸
三角行列式也没关系,b只不过让矩形面积往右边偏斜了点,不影响实际大小.可忽略.
对矩阵$\begin{bmatrix} 3&2\\1&2\\\end{bmatrix}$
先判断在j右边,故det()为正,再计算det($\begin{bmatrix} 3&2\\0&2\\\end{bmatrix}$
) = 3*2 - 2*0 = 6
det($\begin{bmatrix} 1&2\\3&4\\\end{bmatrix}$
) = 1*4 - 2*3 = -2.0
三阶行列式计算,涉及代数余子式
逆矩阵
线性代数能广泛求解多元一次方程组(线性方程组)
{
2
x
+
5
y
+
3
z
=
−
3
4
x
+
0
y
+
8
z
=
0
1
x
+
3
y
+
0
z
=
2
\begin{cases} 2x+5y+3z=-3\\ 4x+0y+8z=0\\ 1x+3y+0z=2\\ \end{cases}
⎩⎪⎨⎪⎧2x+5y+3z=−34x+0y+8z=01x+3y+0z=2
–>
[
2
5
3
4
0
8
1
3
0
]
\begin{bmatrix} 2&5&3\\4&0&8\\1&3&0\end{bmatrix}
⎣⎡241503380⎦⎤
[
x
y
z
]
\begin{bmatrix} x\\y\\z\end{bmatrix}
⎣⎡xyz⎦⎤
=
[
−
3
0
2
]
\begin{bmatrix} -3\\0\\2\end{bmatrix}
⎣⎡−302⎦⎤` 求x,y,z.有什么巧妙的方法吗?
设
A
x
⃗
=
v
⃗
A\vec x=\vec v
Ax=v,发现
x
⃗
=
v
⃗
A
−
1
\vec x=\vec vA^{-1}
x=vA−1即
[
x
y
z
]
\begin{bmatrix} x\\y\\z\end{bmatrix}
⎣⎡xyz⎦⎤=
[
−
3
0
2
]
\begin{bmatrix} -3\\0\\2\end{bmatrix}
⎣⎡−302⎦⎤
[
2
5
3
4
0
8
1
3
0
]
−
1
\begin{bmatrix} 2&5&3\\4&0&8\\1&3&0\end{bmatrix}^{-1}
⎣⎡241503380⎦⎤−1`
-
先理解逆矩阵与行列式的关系:
我们定义二阶矩阵A*B等于二阶单位矩阵 [ 1 1 1 1 ] \begin{bmatrix} 1&1\\1&1\end{bmatrix} [1111]则称B是A的逆矩阵,
B = A − 1 B = A^{-1} B=A−1`,很明显,它们相乘结果是一个面积为1的矩阵.假设det(A) =6 ,那么det(B)一定等于1/6. -
再理解一条直线乘以一个向量的含义:一个向量进入了一个线性相关空间(其矩阵det值为0),所以这个向量变换后只能落到这条直线上.而我们不能根据一个直线与该直线上的向量相乘得到
-
几何意义就是把向量 v ⃗ \vec v v
从A矩阵空间,逆向变回直角坐标空间,最终得到的一个向量就是
x ⃗ \vec x x`. -
A是非零行列式才行, x ⃗ \vec x x
=
A − 1 v ⃗ A^{-1}\vec v A−1v`才有唯一解 -
因为行列式为0表示降维打击,无法在元维度还原向量,故定义det[A]=0时,原维度不存在逆矩阵.
秩:
矩阵的列空间就是矩阵基底张成的空间,就是我说的矩阵空间
秩就是一个矩阵空间张量所能充斥的维度
秩就是列空间的维度
- det(A)非0矩阵又称列满秩矩阵,此时只有零向量始终保持不变,变换后始终落在原点
- 不满秩矩阵,一定有一个维度的向量都被压缩到了原点,这些变换后落在原点的向量叫矩阵的零空间,又叫矩阵的核.
- 比如
A
x
⃗
=
v
⃗
A\vec x=\vec v
Ax=v
里,
v ⃗ \vec v v是零向量,有
v ⃗ \vec v v是A空间内的向量,所以
v ⃗ \vec v v是A矩阵的核.它表明有
x ⃗ \vec x x有无数个解,只要是在
A − 1 A^{-1} A−1`空间内就行.
总结:线性代数可以用来计算任意N阶矩阵相乘,
计算思路(数学直觉)是把右矩阵拆分N个向量,分别放进左矩阵空间内变换,再把所有变换完的向量组合起来(相加)
如:一个向量乘以一条直线(线性相关二维矩阵),两个向量互乘,两个矩形互乘,
两个长方体互乘,一个矩形乘以一个长方体,一个长方体乘以一个矩形.
非方阵矩阵
矩阵失去维度三种情况
-
非方阵矩阵空间直接少写一个基底,无行列式,基底不能相加
-
非方阵矩阵空间的每个基底少写一个(分量)维度,无行列式,基底不能相加
-
方正矩阵某两列线性相关,自然降维,行列式为0.
举例
-
[ 4 3 ] \begin{bmatrix} 4&3\\\end{bmatrix} [43]` 是拥有两个只剩x轴映射的残缺基底的二维矩阵,是天然的线性相关降维矩阵(空间,非方阵,无行列式.基底间不可相加.线下也不行.
-
[ 4 3 ] \begin{bmatrix} 4\\3\\\end{bmatrix} [43]`是一个向量
3x2矩阵
是三维空间中一个过原点的二维平面,是二维矩阵
2*3矩阵
有三个列是三维矩阵,但是每个基底都损失了一个维度,本质还是一个平面,是其中两个基底线性相关的三维矩阵
2*3矩阵或3*3线性相关矩阵的作用是做函数使用,左乘把任意一个三维非线性相关矩阵降成二维空间.
1*2矩阵
[1 2] 是一维数轴上的两个向量,本质是线性相关的二维矩阵
内积
又名点积,点乘,向量的数量积, i ⃗ j ⃗ = ∣ i ∣ ∣ j ∣ c o s θ \vec i~\vec j=|i||j|cos\theta i j=∣i∣∣j∣cosθ`,已知力,位移与夹角求做功
两个相同维度的向量相乘,就是把同一维度的基向量相乘再求总和
-
[
1
2
]
\begin{bmatrix} 1\\2\\\end{bmatrix}
[12]
.
[ 3 4 ] \begin{bmatrix} 3\\4\\\end{bmatrix} [34]` =1*3+2*4=11 - 本质是 [ 3 4 ] \begin{bmatrix} 3\\4\\\end{bmatrix} [34]`这个向量的每个分量进入左矩阵(数轴),即把右矩阵的i,j基底分别投影到左矩阵(数轴),再相加.
- 点积正负只与两个向量夹角相关,锐角为正,钝角为负.
- 点积就是向量积
a
⃗
b
⃗
=
∣
a
∣
∣
b
∣
c
o
s
(
θ
1
−
θ
2
)
=
a
b
(
c
o
s
θ
1
c
o
s
θ
2
+
s
i
n
θ
1
s
i
n
θ
2
)
=
a
c
o
s
θ
1
b
c
o
s
θ
2
+
a
s
i
n
θ
1
b
s
i
n
θ
2
=
x
1
x
2
+
y
1
y
2
\vec a \vec b = |a||b|cos(\theta_1-\theta_2)=ab(cos\theta_1cos\theta_2+sin\theta1sin\theta_2)=acos\theta_1bcos\theta_2+asin\theta_1bsin\theta_2=x_1x_2+y_1y_2
ab=∣a∣∣b∣cos(θ1−θ2)=ab(cosθ1cosθ2+sinθ1sinθ2)=acosθ1bcosθ2+asinθ1bsinθ2=x1x2+y1y2`
与行列式不同,行列式是单矩阵自求自,点积是两向量相乘是向量积,是值.
为什么点积这样算
先理解一个直角向量(有i,j)被变换到一个数轴(也有i,j)上,因为数轴的i,j两个基底的y轴为砍了.所以该数轴实际上是两个x轴上的向量,但是它们不会相加
[
2
1
]
\begin{bmatrix} 2\\1\\\end{bmatrix}
[21].
[
x
y
]
\begin{bmatrix} x\\y\\\end{bmatrix}
[xy]=
[
2
1
]
\begin{bmatrix} 2&1\\\end{bmatrix}
[21].
[
x
y
]
\begin{bmatrix} x\\y\\\end{bmatrix}
[xy]`
降维的本质
定义一个矩阵空间的基底维度随矩阵满秩时的维度
满秩降维的本质是统一砍掉所有基底的一个轴(行列式划掉一行)
不满秩降维的本质是,有两个维度(基底)线性相关,可以砍掉其中任意一个维度.
矩阵行列式求解方法
求行列式只是为了求是否为0,非0则矩阵可逆,逆矩阵用处可大了
- 画成三角矩阵,对角线上相乘
- 矩阵列相加减,因为矩阵具备可加性,逆过来就是可减性.
举例: ∣ 3 1 5 4 ∣ \begin{vmatrix} 3&1\\5&4\\\end{vmatrix} ∣∣∣∣3514∣∣∣∣=
∣ 1 1 4 4 ∣ \begin{vmatrix} 1&1\\4&4\\\end{vmatrix} ∣∣∣∣1414∣∣∣∣+
∣ 2 1 1 4 ∣ \begin{vmatrix} 2&1\\1&4\\\end{vmatrix} ∣∣∣∣2114∣∣∣∣= 0 +
∣ 2 1 1 4 ∣ \begin{vmatrix} 2&1\\1&4\\\end{vmatrix} ∣∣∣∣2114∣∣∣∣即
∣ 3 1 5 4 ∣ \begin{vmatrix} 3&1\\5&4\\\end{vmatrix} ∣∣∣∣3514∣∣∣∣=
∣ 2 1 1 4 ∣ \begin{vmatrix} 2&1\\1&4\\\end{vmatrix} ∣∣∣∣2114∣∣∣∣` = 2*4 - 1*1 矩阵的列之间可以相加减,并且发起列原地替换成结果
三种计算方法
-
三角矩阵
计算: ∣ 1 2 1 0 1 0 1 0 1 ∣ \begin{vmatrix} 1&2&1\\0&1&0\\1&0&1\end{vmatrix} ∣∣∣∣∣∣101210101∣∣∣∣∣∣=
∣ 0 2 1 0 1 0 0 0 1 ∣ \begin{vmatrix} 0&2&1\\0&1&0\\0&0&1\end{vmatrix} ∣∣∣∣∣∣000210101∣∣∣∣∣∣` 发现第一列是0向量,故体积一定为0,即行列式一定为0. -
或者先简单列相加减一下,再用代数余子式直接计算. ∣ 1 2 1 0 1 0 1 0 1 ∣ \begin{vmatrix} 1&2&1\\0&1&0\\1&0&1\end{vmatrix} ∣∣∣∣∣∣101210101∣∣∣∣∣∣
= 1*
∣ 1 0 0 1 ∣ \begin{vmatrix} 1&0\\0&1\\\end{vmatrix} ∣∣∣∣1001∣∣∣∣- 2
∣ 0 0 1 1 ∣ \begin{vmatrix} 0&0\\1&1\\\end{vmatrix} ∣∣∣∣0101∣∣∣∣+ 1
∣ 0 1 1 0 ∣ \begin{vmatrix} 0&1\\1&0\\\end{vmatrix} ∣∣∣∣0110∣∣∣∣` = 1 - 0 + -1 = 0 -
直接看出来, ∣ 1 2 1 0 1 0 1 0 1 ∣ \begin{vmatrix} 1&2&1\\0&1&0\\1&0&1\end{vmatrix} ∣∣∣∣∣∣101210101∣∣∣∣∣∣`很明显第一列与第三列线性相关,整个矩阵发生降维,故行列式为0.
叉乘
点乘的结果是值,是降维,但是叉乘的结果是垂直于两向量的法向量,是升维.法向量的长度就是两向量的行列式面积.
三阶行列式
[
a
b
c
]
\begin{bmatrix} a\\b\\c\end{bmatrix}
⎣⎡abc⎦⎤x
[
d
e
f
]
\begin{bmatrix} d\\e\\f\end{bmatrix}
⎣⎡def⎦⎤= det(
[
i
a
d
j
b
e
j
c
f
]
\begin{bmatrix} i&a&d\\j&b&e\\j&c&f\end{bmatrix}
⎣⎡ijjabcdef⎦⎤`) = i(bf-ec) - j(cd-af) + k(ae-bd)
两个三阶向量叉乘就是一个需要输入一个向量的三维输出函数
f
(
[
x
y
z
]
)
f(\begin{bmatrix} x\\y\\z\end{bmatrix})
f(⎣⎡xyz⎦⎤)= det(
[
x
a
d
y
b
e
z
c
f
]
\begin{bmatrix} x&a&d\\y&b&e\\z&c&f\end{bmatrix}
⎣⎡xyzabcdef⎦⎤`) =任意向量与后两列叉积向量的叉积= x(bf-ec) - y(cd-af) + z(ae-bd)
两向量扫过的面积,逆时针为正,顺时针为负,垂直时面积最大
- 如直角坐标系里
i
⃗
\vec i
i
x
j ⃗ \vec j j= +1,先写的在右为正. 则J在I左边时
i ⃗ \vec i ix
j ⃗ \vec j j>0,J在I右边时
i ⃗ \vec i ix
j ⃗ \vec j j`<0 - 则J在I左边时|
i
⃗
\vec i
i
x
j ⃗ \vec j j| = det([
i ⃗ j ⃗ \vec i~~~~\vec j i j]) = det(
[ 3 2 1 − 1 ] \begin{bmatrix} 3&2\\1&-1\\\end{bmatrix} [312−1]`) - 或者右手法则,
v
⃗
\vec v
v
是右手食指,
w ⃗ \vec w w`是右手中指.叉积向量是右手大拇指,纸面朝外为正,反之为负. - 叉积表达式里有四个分量,单个分量放大3倍,叉积放大 3 \sqrt3 3`倍
矩阵应用
法向量的坐标p1 = v2.w3-v3.w2; p2=v3.w1-v1.w3; p3=v1.w2-v2.w1;
叉积是法向量,写法是正负行列式值,其模是行列式值.点乘是值,是矩阵相乘
平面上两个线性无关的向量当基向量时,可以张成一个平面.
矩阵线性变换时(计算),大家暂时会回到直角空间进行计算.
我想把一个平面内多个向量转换成一条斜线(2*2线性相关矩阵)上的向量,再相加.
左乘2*2线性相关矩阵法:
[
1
2
2
4
]
\begin{bmatrix} 1&2\\2&4\end{bmatrix}
[1224]
[
1
3
5
2
7
0
−
1
6
1
−
3
]
\begin{bmatrix} 1&3&5&2&7\\0&-1&6&1&-3\\\end{bmatrix}
[103−156217−3]
=
[
1
1
17
4
1
2
2
34
8
2
]
\begin{bmatrix} 1&1&17&4&1\\2&2&34&8&2\end{bmatrix}
[121217344812]
只求向量在直线上的投影模的和的话,直接令直线外向量
u
⃗
\vec u
u,直线上向量
v
⃗
\vec v
v,
u
⃗
\vec u
u在
v
⃗
\vec v
v上的投影长是
u
⃗
v
⃗
∣
v
⃗
∣
\frac{{\vec u}{\vec v}}{|\vec v|}
∣v∣uv=
∣
u
⃗
∣
c
o
s
θ
|\vec u|cos\theta
∣u∣cosθ`
两个向量点乘:就是一个向量变成行矩阵乘以另一向量,结果是一个新向量
用叉乘证点乘能求一个六面体行列式(底面积乘高):
已知v,w两个线性无关向量构成平面,两向量矩阵的行列式是面积.z向量是平面外任意向量,
∣
z
⃗
∣
c
o
s
θ
|\vec z|cos\theta
∣z∣cosθdet(矩阵) =
∣
z
⃗
∣
∣
w
⃗
|\vec z||\vec w
∣z∣∣wx
v
⃗
∣
c
o
s
θ
\vec v|cos\theta
v∣cosθ=
z
⃗
\vec z
z.(
w
⃗
\vec w
wx
v
⃗
\vec v
v`) = det([z,v,w])
总结:
矩阵相乘是标准向非标准的线性变换.向量点乘就是向量积(模相乘再相加),叉乘就是合成的矩阵行列式与方向,必须拿来跟别的向量点乘才有用.
基变换:
无论大家遵循哪套基底,原点都是一样的,因为原点意味着所有基量乘以0时的情况.是通用的.
直角坐标系是一切变换的根基.而矩阵描述了一个从标准向非标准变换的过程,是的,它的本质是以标准基底描述的向非标准转变的过程.而逆矩阵是以标准基底描述的从非标准基底向标准基底变换的过程.我们可以得知,两个标准向量是非标准基底的多少倍
线性变换有两种:
- 已知一个非标准矩阵空间,我们把一个向量放进去变换,它会变成什么样.当然,最终结果要用标准基底描述.
- 已知一个非标准矩阵空间,里面有一个用该空间基底描述的向量,我们想把它转换成用标准基底描述.
发现上述两种情况的写法一模一样.都是
[
2
−
1
1
1
]
\begin{bmatrix} 2&-1\\1&1\\\end{bmatrix}
[21−11]
[
−
1
2
]
\begin{bmatrix} -1\\2\\\end{bmatrix}
[−12]
=
[
−
4
1
]
\begin{bmatrix} -4\\1\\\end{bmatrix}
[−41]`
- 我们一直用标准基底描述所有的向量,那么如何把标准基底通过矩阵的逆变换变成非标准基底呢.
- 矩阵的逆,就是标准(1,0),(0,1)在非标准矩阵中的情况.
- 逆矩阵*标准向量(就是标准基的放大倍数) = 非标矩阵中非标基底描述的向量(非标基底的方法倍数)
如何用非标准基描述逆时针90º的线性变换(非–>标)
先选任一非标准向量 v ⃗ \vec v v`(标准基描述),线性变换回标准向量,再逆90º变换.最后用逆矩阵把标准基描述转换成非标准基描述.
整个过程从非标准空间里的向量(标准描述)到另一个非标准空间里的向量(非标准基描述)
A − 1 M A v ⃗ A^{-1}MA\vec v A−1MAv` M是某种线性变换,A是已知线性空间,A^-1是逆矩阵.三者合起来实现把标准描述的非标向量转换成非标描述的非标向量.
特征值
一个矩阵空间从标准空间线性变换到线性空间的过程中,方向不变(不旋转)的向量叫特征向量.而特征值,就是特征向量在变换过程中拉伸或伸缩的比例.
如何求一个已知矩阵的特征值
已知矩阵A=
[
3
1
4
1
5
9
2
6
5
]
\begin{bmatrix} 3&1&4\\1&5&9\\2&6&5\end{bmatrix}
⎣⎡312156495⎦⎤的特征值是
λ
\lambda
λ,把特征向量
v
⃗
\vec v
v放入矩阵A中,
v
⃗
\vec v
v发生
A
v
⃗
A\vec v
Av=
λ
v
⃗
\lambda\vec v
λv=
[
λ
0
0
0
λ
0
0
0
λ
]
\begin{bmatrix} \lambda&0&0\\0&\lambda&0\\0&0&\lambda\end{bmatrix}
⎣⎡λ000λ000λ⎦⎤=
(
λ
I
)
v
⃗
(\lambda I)\vec v
(λI)v推出
(
A
−
λ
I
)
v
⃗
=
0
⃗
(A-\lambda I)\vec v=\vec 0
(A−λI)v=0即
[
3
−
λ
1
4
1
5
−
λ
9
2
6
5
−
λ
]
v
⃗
=
0
⃗
\begin{bmatrix} 3-\lambda&1&4\\1&5-\lambda&9\\2&6&5-\lambda\end{bmatrix}\vec v = \vec 0
⎣⎡3−λ1215−λ6495−λ⎦⎤v=0`
比如我们知道某个矩阵空间的特征向量(1,2)的特征值是-1/2.我们立刻就能在脑中模拟出该线性变换时什么样的变换.翻转,并以该向量为中轴线压缩1/2
旋转轴
在三维矩阵里,特征值为1的特征向量一定是该三维体的