线性代数精华——从正交向量到正交矩阵
向量内积 这个基本上是中学当中数学课本上的概念,两个向量的 内积 非常简单,我们直接看公式回顾一下: \[X \cdot Y = \sum_{i=1}^n x_i*y_i\] 这里X和Y都是n维的向量,两个向量能够计算内积的前提是两个向量的维度一样。从上面公式可以看出来,两个向量的内积就等于两个向量对应各个维度的分量的乘积的和。 为了和矩阵乘法以及普通的乘法做区分,我们通常把两个向量的内积写成: \([x, y]=x^Ty\) 。 这里有一个很重要的性质,对于一个向量而言,我们可以用欧几里得公式计算它的长度。进一步,我们可以用向量的长度以及向量之间的夹角来表示向量的内积,如下: \[[x, y]=|x|\cdot |y|\cos\theta\] 其中的 \(\theta\) 是x和y向量之间的夹角,对于三维及以下空间内的向量,这一点非常直观。对于高维度的向量,我们很难想象它的物理意义。不过没有关系,我们一样可以认为向量之间存在一个 广义超空间 内的一个夹角。在机器学习领域,我们通常用这个夹角来反应 向量之间的相似度 。两个向量越相似,那么它们之间的夹角应该越小,对应的cos余弦值应该越大。所以我们可以用两个向量之间的余弦值来反应它们之间的相似度。余弦值的计算就源于此。 正交向量 从上面的公式可以看出来,向量的内积等于两个向量长度乘上向量之间的夹角。对于非零向量而言