卷积
文章平均质量分 72
perfect_csdn1
这个作者很懒,什么都没留下…
展开
-
可分离卷积
先看一下nn.Conv2d()代码:torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros')输入:(N,C_in,H_in,W_in)输出:(N,C_out,H_out,W_out)dilation:空洞卷积率,控制卷积膨胀间隔groups:分组卷积来控制输入和输出的连接方式,in_chann转载 2021-07-06 15:50:03 · 1448 阅读 · 0 评论 -
tf.nn.conv2d参数含义和tf.nn.max_pool
一、tf.nn.conv2d()卷积函数各参数解析卷积在tensorflow中的API是tf.nn.conv2d()tf.nn.conv2d(input,filter,strides,padding,use_cudnn_on_gpu=True,data_format=‘NHWC’,name=None)input:输入,要求一定一个形状为(a,b,c,d)的tensor,也就是通常说的4维张量,它具有两种形式:NHWC,NCHW,表示输入的通道在第2维或者是第4维,在后面的参数data_format中转载 2021-06-30 16:49:12 · 300 阅读 · 0 评论 -
一维卷积
一维卷积分为:full卷积、same卷积和valid卷积以一个长度为5的一维张量I和长度为3的一维张量k(卷积核)为例,介绍其过程。一维full卷积Full卷积的计算过程是:K沿着I顺序移动,每移动到一个固定位置,对应位置的值相乘再求和,计算过程如下:将得到的值依次存入一维张量Cfull,该张量就是I和卷积核K的full卷积结果,其中K卷积核或者滤波器或者卷积掩码,卷积符号用符号*表示,记Cfull=I*K一维same卷积卷积核K都有一个锚点,然后将锚点顺序移动到张量转载 2021-05-15 21:09:09 · 22673 阅读 · 9 评论 -
dilated convolution(空洞卷积/扩张卷积)
论文链接:https://arxiv.org/abs/1511.07122关于dilated conv的更细的讨论,推荐阅读:Understanding Convolution for Semantic SegmentationRethinking Atrous Convolution for Semantic Image Segmentationdilated conv诞生背景:在图像分割中:图像输入到CNN(如FCN)中,FCN先对图像进行conv再做pooling,降低图像尺寸的同时增大感转载 2021-05-14 16:25:55 · 562 阅读 · 0 评论 -
小卷积核代替大卷积核原理
卷积层特征图尺寸计算公式设置图片尺寸为64*64 pixel两个3*3卷积核代替5*5卷积核5*5卷积的特征图尺寸:kernel=5*5,stride=1,padding=0M=(64-5+2*0)/1+1=60计算量:5*5*channels=25*channels2个3*3卷积的特征图尺寸(这里指进行两次3*3卷积);kernel=3*3,stride=1,padding=0第一次:(64-3+2*0)/1+1=62第二次:(62-3+2*0)/1+1=60原创 2021-05-14 16:55:37 · 1970 阅读 · 0 评论