初入计算机视觉头疼的卷积算法

本人是计算机科学与技术专业,并不是人工智能专业,这只是本人对于卷积算法的部分了解,个人简介,如有不对,还请指出。

CBL中的l leaky relu函数

leaky relu=x(x>0)
leaky relu=αx(x<=0)

Leaky ReLU函数的特点:

Leaky ReLU函数通过把x xx的非常小的线性分量给予负输入0.01 x 0.01x0.01x来调整负值的零梯度问题。
Leaky有助于扩大ReLU函数的范围,通常α的值为0.01左右。
Leaky ReLU的函数范围是负无穷到正无穷。

#可以理解为,取零函数,大于零的保留,小于零的让他等于零,提取特征

mish激活函数
以上无边界(即正值可以达到任何高度)避免了由于封顶而导致的饱和。理论上对负值的轻微允许允许更好的梯度流,而不是像ReLU中那样的硬零边界。
最后,可能也是最重要的,目前的想法是,平滑的激活函数允许更好的信息深入神经网络,从而得到更好的准确性和泛化。

卷积的计算
参数:
    ·size:卷积核/过滤器大小,选择有1*1,3*3,5*5
    ·padding:零填充,Valid与Same
    ·stride:步长,通常默认为1

四个超参数:
filter数量k        filter大小f        步长s        零填充大小p
#filter就是过滤器

当我们不进行零填充的时候,经过卷积得到的feature会变小
设N为图片大小,F为卷积核大小
最终得到的feature大小为:N-F+1
会导致图像变小,边缘信息丢失
当我们进行了零填充以后,设填充的层数为p
那么最后得到的feature大小为:N+2*P-F+1

valid和same卷积
为了避免出现图片表现,边缘信息丢失的弊端,通常会使用 same卷积
  ·valid卷积:不填充,也就是最终大小为    
      ·(N-F+1)*(N-F+1)
  ·same卷积:输出大小与原图大小一致,那么N就变成了N+2P
      ·(N+2P-F+1)*(N+2P-F+1)
那也就意味着之前大小与之后大小一样,那么就有
N=(N+2P-F+1)
P=(F-1)/2
所以在知道了卷积核大小以后就可以知道需要填充多少层像素

多通道卷积
当输入有多个通道时(例如图片可以有rgb三个通道),卷积核需要拥有相同的channel数,每个卷积核channel与输入层对应的channel进行卷积,
将每个卷积结果进行按位相加得到最终的feature map

多卷积核卷积
当有多个卷积核时,可以学习到多种不同的特征,对应产生包含多个channel的feature map。例如当有两个filter时,会output两个channel
这里的多少个卷积核可以理解为多少个神经元。
相当于我们把多个特称的卷积核的计算结果放在一起,比如水平边缘检测器和垂直边缘检测器


 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值