torch.nn.Conv1d的原理以及实际应用

torch.nn.Conv1d的原理以及实际应用
![在这里插入图片描述
图片来源:https://zhuanlan.zhihu.com/p/29201491
所谓一维卷积,就是卷积时只看列,不看行。初始:7乘5 卷积核:三种大小,分别为25、35、45,每种两个。重点是卷积时,只在列一个方向上滑动。这里stride默认为1,所以输出(n+2p-f)/s+1,padding为0,以最后一个卷积核为例,{(7-2)/1 +1=6乘(5-5)/1+1=1},得到一个(61)的列向量,就是结果。其他卷积也是如此,所以一共得到(41),(51),(61)的列向量各两个,共计6个。经过max_pooling,每个列向量变成1个值。最后获得6个值,两两进行拼接,得到三个(21)向量这三个向量再次拼接,在经过一个全连接层,输出2个类别的概率。

代码
conv1 = nn.Conv1d(in_channels=256, out_channels=100, kernel_size=3, stride=1, padding=0) input = torch.randn(3, 7,5) # [batch_size, max_len, embedding_dim] input = input.permute(0, 2, 1) # 交换维度:[batch_size, embedding_dim, max_len] out = conv1(input) # [batch_size, out_channels, n+2p-f/s+1] print(out.shape) # torch.Size([32, 100, 33])输入375 代表输入3个句子,每个句子7个词,每个词最大长度5
为什么要交换维度?个人理解,由于卷积实在每个词上进行,而不是字母上

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值