-
concat还比较好理解,axis为几,就是在第几个axis上扩展
-
在concat的基础上,再去看stack的计算结果,乍一看比较难理解,这个blog提出最小组装单元的思路去理解最后生成的结果,是一个思路;第二个感觉更直观:这个stack overflow 给了一个计算理解的方法,a 和 b两个tensor(shape=(x,y) ),在axis=m上进行stack的话,先把原始tensor先升维 (a 和 b看作shape=(1,x,y) 的tensor),然后在新的tensor的 m t h m^{th} mth axis上进行concat
这样理解的出发点:我们已知stack会导致升维,且升的那一维就是axis指定的那个维度,所以计算结果等价于上述的操作流程。
- stack和concat的物理意义这个blog讲得特别好,如果需要创建新的维度再用stack,否则concat就行