很遗憾,Matrix(矩阵)是什么是说不清的。你必须得自己亲眼看看。----墨菲斯
一、线性变换(Linear transformation)
1.transformation(变换)本质上是“函数”的一种花哨的说法,它接收输入内容,并输出对应结果。特别地,在线性代数的情况下,我们考虑的是接收一个向量并且输出一个向量的变换。
2.为什么“变换”和“函数”意义相同,却使用前者而不是后者?使用“变换”是在暗示以特定方式来可视化这一输入-输出关系。一种理解“向量的函数”的方法是使用运动。
3.变换是很随意的,但是线性变换需要具备以下两条性质:
- 直线在变换后仍然保持为直线,不能有所弯曲。
- 原点必须保持固定。
4.总的来说,你应该把线性变换看作是“保持网格线平行并等距分布”的变换。
5.如何用数值描述线性变换?我们只需要记住基向量,i帽和j帽。v向量=-1i帽+2j帽。那么变换后的i帽和j帽从[1,-2]到[3,0]通过计算可以得到v向量的值为[5,2]。所以很炫酷呀,我们只需要记住基向量就可以推断出任何向量的落脚点(变换后的落脚点),完全不必观察变换本身是什么样
6.一个二维线性变换仅由四个数字完全确定,变换后i帽的两个坐标与变换后j帽的两个坐标,通常我们将这些坐标包装在一个2*2的格子中,称它为2*2矩阵,你可以把它的列理解为两个特殊的向量,即i帽和j帽分别落脚的位置。
7.如果你有一个描述线性变换的2*2矩阵,以及一个给定向量。你想了解线性变换对这个变量的作用。你只需要取出向量的坐标,将他们分别于矩阵的特定列相乘,然后将结果相加即可。这与“缩放基向量再相加”的思想一致。
8.矩阵相乘,[(a,b),(c,d)],(a,b)为第一个基向量的落脚点(变换前),(c,d)为第二个基向量的落脚点。我们把这个变换作用于v向量(x,y),结果是什么?v向量的变换如下:
转载请标明出处:线性代数的本质 (3) 矩阵与线性变换
文章来源: 线性代数的本质 (3) 矩阵与线性变换