卷积神经网络

一、神经网络

 (1)深度学习是什么

       深度学习(Deep learning)是实现及其学习算法的技术,机器学习(Macine learning)是实现人工智能的方法。

 (2) 神经元——最小的神经网络

神经元->激活函数sigmoid->二分类逻辑斯蒂回归模型

多输出神经元->softmax->多分类逻辑斯蒂回归模型

目标函数:衡量对数据的拟合程度。有平方差损失和交叉熵损失。其中交叉熵损失更适合多分类.

Tensorlow声明式编程和命令式编程的区别和联系以及各自优缺点:

(3)神经网络训练的优化 

缺点:①每次都在整个数据集上计算Loss和梯度,计算量大,并且可能内存承载不住

           ②梯度方向确定的时候,仍然是每次都走一个单位长度,速度太慢

优化:①随机梯度下降,每次只使用一个样本

           ②Mini-Batch梯度下降,每次只使用一小部分数据进行训练,梯度下降存在震荡问题,存在局部值和saddle point问题。

动量梯度下降SGD:

       开始训练时,积累动量,加速训练。相同方向的向量可以叠加

      ①局部极值附近震荡时,梯度为0,但是由于积累的动量,可以跳出陷阱。

      ②梯度方向改变时,缓解动荡。

二、卷积神经网络

(1)神经网络遇到的问题

1.参数过多

    ①容易过拟合,需要更多的训练数据

    ②收敛训练到较差的局部极值

    解决办法:

    ①局部连接(图像的区域性)

    ②参数共享(特征与位置无关)

其余较为简单基本概念不再做解释,以下为本人对多通道的学习笔记,有问题望指点。

(2)什么是通道channels

 如上图,输入为32*32大小的图片,有通道3个,有filter即卷积核6个,每个卷积核3通道。

一个卷积核的通道数与它进行卷积的输入必须是相同,例如上图中输入图像3通道,过滤器filter也是3通道。

有几个卷积核,卷积核的深度就是多少。

具体可以学习文章https://blog.csdn.net/qq_35437792/article/details/121023998

(3)激活函数

激活函数具有单调性,是非线性函数 。

如果使用线性函数,一个很深的网络也相当于一个单层神经网络。

其中Relu在卷积神经网络中常用。例如图片右侧距离,将所有负数都变为0,所有正数都不变。

(4)池化——最大值池化

池化是计算量及精度之间的交换

性质:

①常使用不重叠、不补零,多的数据就会直接丢掉。(区别于前面padding使输出size不变即和输入一样大)

②没有用于求导的函数

③池化参数为步长和池化核大小(一般默认步长和池化核大小一样就可以防止重叠)

④用于减少图像尺寸,从而减少计算量(池化的目标及作用

⑤一定程度上解决平移鲁棒

⑥损失了空间位置精度

(5)全连接层——将上一层输出展开并连接到每一个神经元上

注意,展开之后的是一维,其后可以再添加全连接层但是不能添加池化层和卷积层。

性质:

①即普通神经网络层

②相比卷积层,参数数目较大

③参数数目 = Ci*C0,分别为输入/输出通道数目

总的来说一句话:卷积神经网络 = 卷积层+池化层+全连接层

                             全卷积神经网络 = 卷积层+池化层

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值