关于点积,在神经网络我已经了解过了,再来复习下
点积的数学表示:
三维
二维
更高维
几何意义:
在v和w的长度不变的情况下
向量W相对向量v的角度越大,投影越短,乘积越小
向量W相对向量v的角度越小,投影越长,乘积越大
向量v和向量方向相同,点积为正
向量v和向量方向相反,点积为负
相互垂直时,投影为0,点积为0
二维向量变换到一维数轴上:
这与点积运算开起来毫无差别
在二维空间内定义一条直线,它的基向量为u-hat,将二维向量投影到这条直线上,实际上这个投影就代表了从二维到一维的变换
在二维等距分布的点投影到这条直线后也是等距分布,因此这个变换也是线性的
u帽在x轴上的投影就是u帽的横坐标,在y轴上的投影就是u帽的纵坐标
这就表明,
二维矩阵与单位向量(u-hat)的乘积,实际就是将二维矩阵变换到u帽所代表的数轴上
非单位向量:
先投影,在缩放