本人是计算机科学与技术专业,并不是人工智能专业,这只是本人对于卷积算法的部分了解,个人简介,如有不对,还请指出。
CBL中的l leaky relu函数
leaky relu=x(x>0)
leaky relu=αx(x<=0)
Leaky ReLU函数的特点:
Leaky ReLU函数通过把x xx的非常小的线性分量给予负输入0.01 x 0.01x0.01x来调整负值的零梯度问题。
Leaky有助于扩大ReLU函数的范围,通常α的值为0.01左右。
Leaky ReLU的函数范围是负无穷到正无穷。
#可以理解为,取零函数,大于零的保留,小于零的让他等于零,提取特征
mish激活函数
以上无边界(即正值可以达到任何高度)避免了由于封顶而导致的饱和。理论上对负值的轻微允许允许更好的梯度流,而不是像ReLU中那样的硬零边界。
最后,可能也是最重要的,目前的想法是,平滑的激活函数允许更好的信息深入神经网络,从而得到更好的准确性和泛化。
卷积的计算
参数:
·size:卷积核/过滤器大小,选择有1*1,3*3,5*5
·padding:零填充,Valid与Same
·stride:步长,通常默认为1
四个超参数:
filter数量k filter大小f 步长s 零填充大小p
#filter就是过滤器
当我们不进行零填充的时候,经过卷积得到的feature会变小
设N为图片大小,F为卷积核大小
最终得到的feature大小为:N-F+1
会导致图像变小,边缘信息丢失
当我们进行了零填充以后,设填充的层数为p
那么最后得到的feature大小为:N+2*P-F+1
valid和same卷积
为了避免出现图片表现,边缘信息丢失的弊端,通常会使用 same卷积
·valid卷积:不填充,也就是最终大小为
·(N-F+1)*(N-F+1)
·same卷积:输出大小与原图大小一致,那么N就变成了N+2P
·(N+2P-F+1)*(N+2P-F+1)
那也就意味着之前大小与之后大小一样,那么就有
N=(N+2P-F+1)
P=(F-1)/2
所以在知道了卷积核大小以后就可以知道需要填充多少层像素
多通道卷积
当输入有多个通道时(例如图片可以有rgb三个通道),卷积核需要拥有相同的channel数,每个卷积核channel与输入层对应的channel进行卷积,
将每个卷积结果进行按位相加得到最终的feature map
多卷积核卷积
当有多个卷积核时,可以学习到多种不同的特征,对应产生包含多个channel的feature map。例如当有两个filter时,会output两个channel
这里的多少个卷积核可以理解为多少个神经元。
相当于我们把多个特称的卷积核的计算结果放在一起,比如水平边缘检测器和垂直边缘检测器