tensorflow conv1D 和deconv1D

# -*- coding: utf-8 -*-

import tensorflow as tf
import numpy as np
"""
conv1d的参数含义:(以NHWC格式为例,即,通道维在最后)

1、value:在注释中,value的格式为:[batch, in_width, in_channels],batch为样本维,
表示多少个样本,in_width为宽度维,表示样本的宽度,in_channels维通道维,表示样本有多少个通道。
事实上,也可以把格式看作如下:[batch, 行数, 列数],把每一个样本看作一个平铺开的二维数组。

2、filters:在注释中,filters的格式为:[filter_width, in_channels, out_channels]。
filter_width可以看作每次与value进行卷积的行数,
in_channels表示value一共有多少列(与value中的in_channels相对应)。
out_channels表示输出通道,可以理解为一共有多少个卷积核,即卷积核的数目,输出的维度。

3、stride:一个整数,表示步长,每次移动的距离,TensorFlow中解释是向右移动的距离

4、padding:同conv2d,value是否需要在下方填补0。

5、name:名称。可省略。

6.return size[bacth,out_size,channel]
"""
# 定义一个矩阵a,表示需要被卷积的矩阵。
a = np.array(np.arange(1, 1 + 20).reshape([1, 10, 2]), dtype=np.float32)

# 卷积核,此处卷积核的数目为1
kernel = np.array(np.arange(1, 1 + 4), dtype=np.float32).reshape([2, 2, 1])

# 进行conv1d卷积
conv1d = tf.nn.conv1d(a, kernel, 1, 'VALID')

with tf.Session() as sess:
    # 初始化
    tf.global_variables_initializer().run()
    # 输出卷积值
    print(sess.run(conv1d))

输出的计算方法:

上边的例程:

a:[[1,3,5,7,9,11,13,15,17,19],

    [2,4,6,8,10,12,14,16,18,20]]

kernel:[[1,3],

          [2.4]]

1*1+3*3+2*2+4*4=30

Padding方法:参考https://blog.csdn.net/leviopku/article/details/80327478

1.SAME: 当filter的中心(K)与image的边角重合时,开始做卷积运算,可见filter的运动范围比full模式小了一圈。注意:这里的same还有一个意思,卷积之后输出的feature map尺寸保持不变(相对于输入图片)。当然,same模式不代表完全输入输出尺寸一样,也跟卷积核的步长有关系。same模式也是最常见的模式,因为这种模式可以在前向传播的过程中让特征图的大小保持不变,调参师不需要精准计算其尺寸变化(因为尺寸根本就没变化)。

 2.VALID:当filter全部在image里面的时候,进行卷积运算。

输出的尺寸:https://blog.csdn.net/Li_haiyu/article/details/80323962#t3

1.padding = “VALID”,N = [(W-F+2P)/S]+1,这里表示的是向下取整再加1,P指填充个数=0

2.padding = “same”,N = [W/S],这里表示向上取整

 

 

图中输入的词向量维度为5,输入大小为7*5,一维卷积和的大小为2、3、4,每个都有两个,总共6个特征。

对于k=4,见图中红色的大矩阵,卷积核大小为4*5,步长为1。这里是针对输入从上到下扫一遍,输出的向量大小为((7-4)/1+1)*1=4*1,最后经过一个卷积核大小为4的max_pooling,变成1个值。最后获得6个值,进行拼接,在经过一个全连接层,输出2个类别的概率。
 

 

 

反卷积:https://zhuanlan.zhihu.com/p/57348649

https://arxiv.org/pdf/1603.07285.pdf

# -*- coding: utf-8 -*-


# -*- coding: utf-8 -*-
__author__ = "YuanBian"
__data__ = '2020/4/20 9:47'
import tensorflow as tf
import numpy as np
"""
deconv1d的参数含义:(以NHWC格式为例,即,通道维在最后)

1、input:在注释中,value的格式为:[batch, in_width, in_channels],batch为样本维,表示多少个样本,in_width为宽度维,表示样本的宽度,in_channels维通道维,表示样本有多少个通道。 
  事实上,也可以把格式看作如下:[batch, 行数, 列数],把每一个样本看作一个平铺开的二维数组。这样的话可以方便理解。

2、filters:在注释中,filters的格式为:[filter_width, output_channels, in_channels]。

3. output_shapeA 1-D `Tensor`, containing three elements, representing the  output shape of the deconvolution op.

4、stride:

5、padding:同conv2d,value是否需要在下方填补0。

公式:反推的VLID: (I-1)S+F=O
SAME: O= IS

"""
# 定义一个矩阵a,表示需要被卷积的矩阵。
a = np.array(np.arange(1, 1 + 2).reshape([1, 2, 1]), dtype=np.float32)

# 卷积核,此处卷积核的数目为1
kernel = np.array(np.arange(1, 1 + 6), dtype=np.float32).reshape([3, 2, 1])

# 进行conv1d卷积
deconv1d = tf.nn.conv1d_transpose(a, kernel, [1, 4, 2], 2, 'SAME')


with tf.Session() as sess:
    # 初始化
    tf.global_variables_initializer().run()
    # 输出卷积值

    print(sess.run(deconv1d))

Tensorflow中:

公式:反推的VLID: (I-1)S+F=O
SAME: O= IS

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值