看代码时遇到pytorch下的nn.Conv1d(),kernel_size参数不太明白,找到了这篇博客,转载链接:
pytorch之nn.Conv1d详解
kernel_size其实是设置卷积核的大小,卷积核的第二维的维度和词向量维度相同,另外,由于卷积默认是对最后一维卷积,所以需要将word_length这一维转换成最后一维,卷积得到的向量是[batch_size, out_size,1],后边需要跟着Relu()和max_pooling(kernel_size = max_word_length - conv_kernel_size + 1),然后拼接到一起再max_pooling(kernel_size = num_conv).