学习常用知识点

卷积神经网络:

神经网络和深度学习-学习总结:https://blog.csdn.net/MyArrow/article/details/51322433
Deep Learning–深度学习:https://github.com/lawlite19/DeepLearning_Python

机器学习算法python实现:https://github.com/lawlite19/MachineLearning_Python

卷积网络

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

卷积层:
用它来进行特征提取,如下:
在这里插入图片描述
输入图像是32 * 32 * 3,3是它的深度(即R、G、B),卷积层是一个5 * 5 * 3的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28 * 28 * 1的特征图,上图是用了两个filter得到了两个特征图;
池化层:
对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征,如下:
在这里插入图片描述
池化操作一般有两种,一种是Avy Pooling,一种是max Pooling,如下:
在这里插入图片描述
同样地采用一个2*2的filter,max pooling是在每一个区域中寻找最大值,这里的stride=2,最终在原特征图中提取主要特征得到右图。

(Avy pooling现在不怎么用了,方法是对每一个2 * 2的区域元素求和,再除以4,得到主要特征),而一般的filter取2 * 2,最大取3*3,stride取2,压缩为原来的1/4.
注意:这里的pooling操作是特征图缩小,有可能影响网络的准确度,因此可以通过增加特征图的深度来弥补(这里的深度变为原来的2倍)。

在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。

为什么可以通过降低维度呢?
因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的平均值 (或最大值)来代表这个区域的特征。
https://blog.csdn.net/yjl9122/article/details/70198357

步幅:
默认步幅s=1

全连接层:
连接所有的特征,将输出值送给分类器(如softmax分类器)。

激活函数

激活函数应该具有的性质:
(1)非线性。线性激活层对于深层神经网络没有作用,因为其作用以后仍然是输入的各种线性变换。。
(2)连续可微。梯度下降法的要求。
(3)范围最好不饱和,当有饱和的区间段时,若系统优化进入到该段,梯度近似为0,网络的学习就会停止。
(4)单调性,当激活函数是单调时,单层神经网络的误差函数是凸的,好优化。
(5)在原点处近似线性,这样当权值初始化为接近0的随机值时,网络可以学习的较快,不用可以调节网络的初始值。
目前常用的激活函数都只拥有上述性质的部分,没有一个拥有全部的~~

常用的非线性激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者relu常见于卷积层。

sigmoid的函数表达式如下:
在这里插入图片描述
其中z是一个线性组合,比如z可以等于:b + * + *。通过代入很大的正数或很小的负数到g(z)函数中可知,其结果趋近于0或1。

因此,sigmoid函数g(z)的图形表示如下( 横轴表示定义域z,纵轴表示值域g(z) ):
在这里插入图片描述
也就是说,sigmoid函数的功能是相当于把一个实数压缩至0到1之间。当z是非常大的正数时,g(z)会趋近于1,而z是非常小的负数时,则g(z)会趋近于0。

激活函数sigmoid,但实际梯度下降中,sigmoid容易饱和、造成终止梯度传递,且没有0中心化。咋办呢,可以尝试另外一个激活函数:ReLU,其图形表示如下
在这里插入图片描述
ReLU的优点是收敛快,求梯度简单。

Tanh函数

这里写图片描述
在这里插入图片描述
其中σ(x) 为sigmoid函数,仍然具有饱和的问题。

LSTM网络总结:

Segnet网络:

Vgg16网络:

LSTM网络总结

参考:
https://blog.csdn.net/a18852867035/article/details/51068057

https://blog.csdn.net/jiede1/article/details/58595418

1,RNN
在这里插入图片描述
2,LSTM
Long Short Term 网络—— 一般就叫做 LSTM ——是一种 RNN 特殊的类型,可以学习长期依赖信息。LSTM 由 Hochreiter & Schmidhuber (1997) 提出,并在近期被 Alex Graves 进行了改良和推广。在很多问题,LSTM 都取得相当巨大的成功,并得到了广泛的使用。
在这里插入图片描述

经典网络

VGG16

博客推荐:
https://www.cnblogs.com/skyfsm/p/8451834.html

https://blog.csdn.net/u011974639/article/details/78053203

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值