深度学习需要具备的基础知识

选择合适的损失函数

  • 平方损失
  • 交叉熵损失

小批量样本(mini-batch)

首先打乱数据,然后选择合适的小批量样本,重复epoch次。例如样本量100, 小批量mini-batch样本为20,epoch为10。则先打乱这100个样本,顺序选取20个样本,更新一次参数,然后再选取下20个样本,再更新一次参数,直到把100个样本选取完,这样重复epoch(10)次。 
其他的可以使用随机梯度下降为一个一个的选择样本更新参数,而批量梯度下降使用全部样本更新一次参数。

使用新的激活函数

常用的为sigmoid, tanh。

ReLU(Rectified Linear Unit)

这里写图片描述

ReLU的变体

LeakyReLU 
这里写图片描述

parametric ReLU 
这里写图片描述 
其中,αα由梯度下降法学习

Maxout

这里写图片描述

适应性学习率(adaptive learning rate)

仔细设置学习率,如果学习率偏大,则每次更新后总损失不会下降,而学习率偏小时,训练会很慢。 
简单却流行的算法为学习率随着时间变化而减小,ηt=ηt+1√ηt=ηt+1。

Adagrad

w←w−ηw∂L/∂ww←w−ηw∂L/∂w 
ηw=ηΣti=0(gi)2√ηw=ηΣi=0t(gi)2 
其中,ηη为常数,gigi为在第i次更新时的∂L/∂w∂L/∂w

算法: 
这里写图片描述

RMSprop

算法: 
这里写图片描述

这里写图片描述

Adam

算法: 
这里写图片描述

动量(Momentum)

这里写图片描述 
如上图,在物体运动的时候会有一个惯性,即使没有力的作用物体还是会向前运动一段距离,这虽然不能保证到达全局最小值,但给出了一些希望。 
而RMSprop算法就是adagrad与momentum的结合。

防止过拟合的技巧

防止过拟合的基本想法就是增加训练数据集,或创造出更多的训练集,但是有时获取更多的训练集有一定难度或成本很高,所以也可以使用其他的办法防止神经网络过拟合。

早停(Early stopping)

这里写图片描述 
从上图看出,把原始数据集分为训练集,验证集与测试集,训练集训练,总损失减小,而验证集总损失先下降后增加,而早停就是在验证集的损失最小的时候停止训练,然后把获得的模型应用到测试集上。

正则化(Regularization)

权重衰减是正则化的一种,原始的梯度下降法为: 
w←w−η∂L/∂ww←w−η∂L/∂w 
权重衰减为: 
w←(1−λ)w−η∂L/∂ww←(1−λ)w−η∂L/∂w 
λλ可以为0.01

Dropout

这里写图片描述 
每次更新参数前有p%的神经元被dropout,这时网络的结构就发生了变化: 
这里写图片描述

如果训练的dropout为p%,则所有的权重要乘以(1-p)%

新的网络结构

如CNN,RNN等

CNN(Convolutional Neural Network)

CNN主要用于处理图像问题。 
假设一个6×66×6的图像: 
这里写图片描述

卷积核(convolutional kernel)也即filter为: 
这里写图片描述 
即卷积核的大小为3×33×3。 
使用上面的卷积核对图片做卷积,假设步长(stride)为1: 
这里写图片描述 
由上图知,对应元素相乘。

最终得到的卷积后的特征图片为: 
这里写图片描述

可以设置不同的卷积核及其大小,卷积核的个数有时也称为通道数。

Padding

即在图片的边缘添加元素0,一般有‘valid’和’same’两种 。 
这里写图片描述

在计算特征图片大小时,假设 
图片大小:H×HH×H 
filter大小:F×FF×F 
padding:P 
stride:S 
则计算公式为: 

H−F+2PS+1H−F+2PS+1

 

池化层(Pooling)

池化层包括Max Pooling 和Avg Pooling等 
由上面可知,由Filter 1得到特征图为: 
这里写图片描述

假设Max Pooling的大小为2×22×2,

这里写图片描述

则从上图中求出各个 部分的最大值。

重复上述步骤多次后,最后把得到的特征扁平化: 
这里写图片描述

整个过程为: 
这里写图片描述

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值