矩阵的点乘和叉乘–深度学习应用场景针对有矩阵基础的解惑版
大学刚学完矩阵论,一搞深度学习,代码.dot 和 矩阵* 傻傻分不清了。这里就帮各位大佬区分一下.
先讲叉乘
规则大家都知道,讲个记忆。叉乘吗,自然需要行列交叉相乘的形式才行的(^_−)☆
学过矩阵运算的都知道,我们其实默认说的矩阵乘法就是这个所谓的叉乘
就是两个矩阵形状对的上,才能正确就行叉乘运算,也就是行与列对应相乘最后相加,放在对应位置。
举个栗子o(´^`)o:
形状上:
(NM)(M,Q)=(N,Q)
实例:
(32) * (23) = (3*3)
由于默认各位大佬都是有矩阵基础的,具体规则大佬们回忆一下就好。
在深度学习中,反而这种运算并不是太多,这个运算主要是用在矩阵形状变换(博主是在NLP自然语言处理,分词里面用到)
你想,如果用在CV里面,一个图片的行乘与一个图片的列在加起来,有何物理意义?