input维度为(batch,step,embedding_size)
参数配置:strides,卷积核每次移动的距离,默认为1
kernel_size为卷积核宽度
filters:输出空间维度
则最后返回的数据维度(在无padding时)为:
对于filters的理解,每一个filter可以看做一双眼睛,多个filters即一组眼睛。
一双眼睛在按照kernel滚动看到信息时,眼睛不变,此即为filter的参数共享。
对于filter看到的每一个kernel信息,最简单的处理方式,就是将输入的每一个kernel信息转换为一个向量,眼睛的处理即为w.A+bias可以得到一个数字,当filter看完所有信息,就会得到一个向量。如果是conv2d双向滚动,就会得到一个矩阵。(注,此处的向量点乘加偏移量是CNN的标准做法,本人认为这里可以通过对追加信息,比如每一个位置的emdding维度,一个kernel的信息交叉等来增强信息)
可视野的概念理解:经过多层卷积神经网络后,最终的每一个神经元可对应的最多原始数据规模数。关于感受野的理解与计算 - 简书
rn = rn-1*kn -(-1+kn)*(sum(si)),其中i从1到n-1。
sum(si)表示从第一层到底n-1层的所有stride和,表示累计窗口大小。
-1+kn表示重叠的次数
rn表示最后一次能的可视野