深度学习 001_关于卷积神经网络的不解之处

一、输入层

没什么好说的了,我曾经纠结过对于彩色图片为什么划分为RGB三通道?

然后……计算机能够对数字进行计算,但无法以我们的方式来解读图像。因此我们必须以某种方式将图像转换为计算机能够理解的数字。所以说,图像处理中有两种常用的方法:

 

1.使用灰度级(Greyscale):

图像将被转换为灰度级(灰色范围从白色到黑色),计算机将根据颜色的深浅为每个像素分配一个值。所有的数字都将放在一个数组中,然后计算机将在该数组上进行计算。这是使用灰度级后所看到的数字8:

 

图像转换为数字(src)

然后我们将结果数组输入到计算机中:

 

2.使用RGB值:

 

颜色可以表示为RGB值(红色,绿色和蓝色的组合,范围从0到255)。然后,计算机可以提取每个像素的RGB值,并将结果放在数组中进行解读。

当计算机对一个新的图像进行解读时,它将使用相同的技术把图像转换为数组,继而将数字模式与已知对象进行比较。然后计算机将为每个类分配一个置信度分数。具有最高置信度分数的类通常就是计算机所预测的那一个。

但是 Low-Level 、Mid-Level、High-Level这三个Feature 

二、卷积层

不得不提卷积层的核心-filter(翻译为过滤器,有些人也称之为滑窗)

 

好了,接下来是疑问时间:

1、从大的角度讲,卷积的工作原理?

如果是输入64x64x3(rgb三通道),输出是32位深度,卷积核尺寸为5x5。则是有32个filter,每一个的尺寸为5x5x3(最后的3就是原图的rgb位深3),每一个filter的每一层是5x5(共3层啊)分别与原图的每层64x64卷积,然后将得到的三张新图叠加,变成一张新的feature map。 每一个filter都这样操作,就可以得到32张新的feature map了。  也就是说:

不管输入图像的深度为多少,经过一个Filter,最后都通过下面的公式变成一个深度为1的特征图。不同的filter可以卷积得到不同的特征,也就是得到不同的feature map。

TensorFlow中这个feature map称之为深度,Caffe中称为几个feature map

 

这里面体现了局部连接和权值共享:每层神经元只和上一层部分神经元相连(卷积计算规则),且filter的权值对于上一层所有神经元都是一样的。对于包含两个3*3*3的fitler的卷积层来说,其参数数量仅有(3*3*3+1)*2=56个,且参数数量与上一层神经元个数无关。与全连接神经网络相比,其参数数量大大减少了。

 

2、这些卷积核是如何创建的?

在TensorFlow中,往往通过tf.get_variable的方式创建过滤器的权重变量和偏置项变量

eg:filter_weight = tf.get_variable('weights',[5,5,3,16],initializer = tf.truncated_normal_initializer(stddev = 0.1))

前面两个维度代表了过滤器的尺寸,第三个维度表示当前层的深度,第四个维度表示过滤器的深度,而TensorFlow中的卷积核是随机生成的,按照需求,运算速度,训练模型图片大小,自己选择维度。

这里就要注意刚才1中的最后一段,卷积神经网路中的卷积层的神经元在哪里,其激活函数是否在第一层当中呢?

是的,也就是说,卷积结束后,得到的那一个值,我们可以视为一个神经元,它是拥有激活函数的,这个可以从式子(4)当中看出来,而且一般采用Relu函数的

(激活函数是用来加入非线性因素的,因为线性模型的表达力不够 )很大神的一句话……

三、池化层

在我看来,池化层的作用纯属对于卷积层所犯的一些“错误”进行修修补补,方便下一次的卷积或者最后全连接层的生成。

四、全连接层

相比于卷积和池化,移动的卷积核升华了原本全连接层当中苦逼的权重矩阵,让卷积核从一维变成了3维的小胖哥。但是啊,为什么所有的空间特征提取的神经网络,都在用卷积核,而且搭配也是五花八门,这个问题有待求解。(这个坑我先来占着)

这是感觉讲的比较明白的友军的文章,也是这篇文章的来源

https://blog.csdn.net/glory_lee/article/details/77899465

https://blog.csdn.net/yjl9122/article/details/70198357

https://www.sohu.com/a/161455997_390227

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值