原文地址https://luoyoyo.com/articles/4f12ec0ba42553838be4917fcab46398
二维的转置大家都很熟悉,横轴变纵轴嘛,
1 2 3 1 4 7
4 5 6 转一下变成 2 5 8
7 8 9 3 6 9
但是对于深度学习来说,尤其在transformer以及后来的bert模型出世以后,需要对多个大批次的多个部分的二维数据进行转置,已进行打分机制的计算(Self Attention),那就是4维数据的转置。。。看得人一懵一懵的。所以呢,在下整理了3维的转置3D呈现效果跟大家分享分享,3维转置是个什么空间逻辑,看懂了3维,那4维就按3维的结构进行推导就出来了。