tf.nn.conv1d(或tf.compat.v1.nn.conv1d)函数

tf.nn.conv1d

也可用作tf.compat.v1.nn.conv1d

1.函数功能

根据给定的输入3-D 张量和滤波器(filter)张量,计算1D卷积

2.函数参数

tf.nn.conv1d(
    value=None,
    filters=None,
    stride=None,
    padding=None,
    use_cudnn_on_gpu=None,
    data_format=None,
    name=None,
    input=None,
    dilations=None
)
参数含义
value3维的输入张量,其维度是[batch, in_width, in_channels](NWC格式) ,batch为样本维,表示多少个样本,in_width为宽度维,表示样本的宽度,in_channels维通道维,表示样本有多少个通道(如灰度单色是1,RGB图片是3)。 可看作一个平铺开的二维数组[batch, 行数, 列数]即把每一个样本看作一个平铺开的二维数组。value其类型必须是float16, float32, 或者 float64之一
filters三维张量,类型与输入张量value一致,filters的格式为[filter_width, in_channels, out_channels]。按照value的第二种看法,filter_width可理解为每次与value进行卷积的行数,in_channels表示value一共有多少列(与value中的in_channels相对应)。out_channels表示输出通道,可理解为一共有多少个卷积核,也即卷积核的数目。
stridefilter在每个步骤中向右移动的步数,可以是一个int整数或者int列表(包含1个或3个int元素的int列表)。。
padding边界的处理方式, ‘SAME’ 代表给边界加锁padding让卷积的输出和输入保持同样(SAME)的尺寸, 'VALID’表达给边界填充0
use_cudnn_on_gpu是否使用cudnn加速,bool类型,默认True.
data_format可以是"NWC"和"NCW";默认为"NWC",数据按[batch,in_width,in_channels]的顺序存储;"NCW"格式将数据存储为[batch, in_channels, in_width]。
name操作的名称(可选).
input输入的别名.
dilations输入的每个维度的膨胀因子,可以是一个int值或int的列表(长度是1或者3),默认值是1。如果某维度的膨胀因子(k)大于1,则在该维度上,每个filter元素之间将有k-1个cell被跳过。在batch和depth维度上膨胀因子值必须为1。

注意:
如果data_format是“NWC”,则给定一个形状为[batch,in_width,in_channels]的输入张量,或者如果data_format是“NCW”,并且过滤器/内核张量的形状为[filter_width,in_channels,out_channels],则[batch,in_channels,in_width],此运算重新计算参数,将其传递给 conv2d 以执行等效卷积操作。

3.返回

Tensor,与输入具有相同的类型。

4.可能引发的异常

ValueError:如果data_format无效。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值