stack与concat差异

以pytorch为例

例子

import torch

a = torch.randint(0, 10, (2, 3, 4))
b = torch.randint(0, 10, (2, 3, 4))
print(a.shape, a)
print(b.shape, b)
c = torch.stack([a, b], dim=0)
d = torch.stack([a, b], dim=1)
e = torch.stack([a, b], dim=2)
print(c.shape, c)
print(d.shape, d)
print(e.shape, e)

f = torch.cat([a, b], dim=0)
g = torch.cat([a, b], dim=1)
h = torch.cat([a, b], dim=2)
print(f.shape, f)
print(g.shape, g)
print(h.shape, h)

打印结果:

a:  torch.Size([2, 3, 4]) tensor([[[0, 6, 7, 9],
         [8, 9, 3, 9],
         [1, 5, 9, 0]],

        [[2, 6, 7, 2],
         [5, 7, 1, 2],
         [4, 1, 9, 1]]])
b:  torch.Size([2, 3, 4]) tensor([[[5, 7, 9, 0],
         [8, 5, 5, 9],
         [5, 2, 5, 3]],

        [[5, 7, 4, 1],
         [2, 9, 4, 3],
         [1, 4, 3, 2]]])
c:  torch.Size([2, 2, 3, 4]) tensor([[[[0, 6, 7, 9],
          [8, 9, 3, 9],
          [1, 5, 9, 0]],

         [[2, 6, 7, 2],
          [5, 7, 1, 2],
          [4, 1, 9, 1]]],


        [[[5, 7, 9, 0],
          [8, 5, 5, 9],
          [5, 2, 5, 3]],

         [[5, 7, 4, 1],
          [2, 9, 4, 3],
          [1, 4, 3, 2]]]])
d:  torch.Size([2, 2, 3, 4]) tensor([[[[0, 6, 7, 9],
          [8, 9, 3, 9],
          [1, 5, 9, 0]],

         [[5, 7, 9, 0],
          [8, 5, 5, 9],
          [5, 2, 5, 3]]],


        [[[2, 6, 7, 2],
          [5, 7, 1, 2],
          [4, 1, 9, 1]],

         [[5, 7, 4, 1],
          [2, 9, 4, 3],
          [1, 4, 3, 2]]]])
e torch.Size([2, 3, 2, 4]) tensor([[[[0, 6, 7, 9],
          [5, 7, 9, 0]],

         [[8, 9, 3, 9],
          [8, 5, 5, 9]],

         [[1, 5, 9, 0],
          [5, 2, 5, 3]]],


        [[[2, 6, 7, 2],
          [5, 7, 4, 1]],

         [[5, 7, 1, 2],
          [2, 9, 4, 3]],

         [[4, 1, 9, 1],
          [1, 4, 3, 2]]]])
f:  torch.Size([4, 3, 4]) tensor([[[0, 6, 7, 9],
         [8, 9, 3, 9],
         [1, 5, 9, 0]],

        [[2, 6, 7, 2],
         [5, 7, 1, 2],
         [4, 1, 9, 1]],

        [[5, 7, 9, 0],
         [8, 5, 5, 9],
         [5, 2, 5, 3]],

        [[5, 7, 4, 1],
         [2, 9, 4, 3],
         [1, 4, 3, 2]]])
g:  torch.Size([2, 6, 4]) tensor([[[0, 6, 7, 9],
         [8, 9, 3, 9],
         [1, 5, 9, 0],
         [5, 7, 9, 0],
         [8, 5, 5, 9],
         [5, 2, 5, 3]],

        [[2, 6, 7, 2],
         [5, 7, 1, 2],
         [4, 1, 9, 1],
         [5, 7, 4, 1],
         [2, 9, 4, 3],
         [1, 4, 3, 2]]])
h:  torch.Size([2, 3, 8]) tensor([[[0, 6, 7, 9, 5, 7, 9, 0],
         [8, 9, 3, 9, 8, 5, 5, 9],
         [1, 5, 9, 0, 5, 2, 5, 3]],

        [[2, 6, 7, 2, 5, 7, 4, 1],
         [5, 7, 1, 2, 2, 9, 4, 3],
         [4, 1, 9, 1, 1, 4, 3, 2]]])

总结

可以看出,concat是拼接tensor,维度不会扩张,但拼接的维度会变成维度之和,如:2个(2,3,4)的tensor在最后一个维度拼接,结果是(2,3,8);stack是堆tensor,然后在该维度外层加一个括号,所以维度会在被堆起来的维度前扩张, 扩张为堆的维度数,如:2个(2,3,4)的tensor在最后一个维度stack,结果是(2,3,2,4)。

其他链接

其他stack相关方法:
    (1) stack, vstack, hstack差别

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值