卷积神经网络

传统神经网络

传统神经网络,主要是输入层,隐含层和输出层。

多层感知机

上图(图引自Stanford机器学习公开课)中

表示第j层第i个单元的激活函数/神经元
表示从第j层映射到第j+1层的控制函数的权重矩阵 
    此外,输入层和隐藏层都存在一个偏置(bias unit),所以上图中也增加了偏置项:x0、a0。针对上图,有如下公式

    此外,上文中讲的都是一层隐藏层,但实际中也有多层隐藏层的,即输入层和输出层中间夹着数层隐藏层,层和层之间是全连接的结构,同一层的神经元之间没有连接。


原文链接:https://blog.csdn.net/v_JULY_v/article/details/51812459

卷积神经网络

主要分为输入层,卷积层,池化层,全连接层。

卷积层做了什么

先将输入的图片划分为一个个小区域,然后对每一块小区域进行卷积操作得到特征图,什么卷积操作呢,下面会讲清楚,其实一个小区域通过一次卷积操作只会得到一个特征值,将各个部分的特征值拼在一起就得到了一个特征图。

这里32*32*3的意思是输入的图片:长为32,宽为32,然后是输入的彩色图像,彩色图像通道有3个,分别是RGB。

卷积操作

通过上图可以看出input有三个图,因为输入的是三通道图,图像在每个通道上的值都是不一样的,通过三通道共同组成了一个图像。

然后对于filter wo,相当于先定义了一个权值,wo是第一个权值图,w1是第二个权值图。然后每一个权值都应该对应一个偏置,所以下面bias b0就是第一个权值的偏置,bias b1是第二个权值的偏置。

作为举例

对应位置相乘,并将值相加:0*1+0*1+0*1+0*-1+1*-1+1*0+0*-1+1*1+1*0=2

偏置w0是1

所以2+1=3

所以output volume第一个值是3

其余类似操作可以得到特征图。

卷积次数

卷积次数不止一次。

步长

卷积的步长就是移动(左右和上下)的大小,步长会影响特征图的大小

卷积核尺寸:上图中输入进行计算的区域

边缘填充

在图像中直接进行卷积时边缘的图像会利用比较少,但是边界图像对于特征来说不一定是不重要的,那么就在图像的边界进行填充,使得整张图象都进行了全面的特征学习。0填充

卷积核个数

卷积核个数等于特征图个数

卷积结果计算公式

参数个数

用10个5*5*3的filter来进行卷积操作,每一个卷积核有5*5*3=75,10个卷积核就有750个参数,加上每个卷积核都会有一个偏置,则有10个偏置,则一共有750+10=760个参数。

池化

进行卷积操作后,会得到很多的特征,但是这些特征并不一定都是有用的,这时就需要去筛选这些特征,只保留最有效的特征。

压缩的是每个特征矩阵的大小,并不会压缩特征矩阵的个数。

方法

最大压缩法

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值