吴恩达深度学习笔记 课程2 第一周 提高神经网络速度方法

一 训练-开发-测试集

在设置神经网络时,通常会面对这些问题。即使是深度学习的行家,一开始也不太会得到最优的参数和超参数,所以说深度学习是一个典型的迭代过程。创建高质量的训练,开发,测试集有助于提高循环效率。
在这里插入图片描述
过去的经验一般是6/2/2比例,随着数据的增加,验证集(验证不同的算法,确定模型)和测试集(正确评估分类器的性能)的比例随之减小。目前流行训练集在网页获取,验证和测试集由用户提供,注意验证和测试要来自同分布的数据,能加快速度。

二 偏差与方差

在这里插入图片描述
依次为欠拟合(样本差异过大,训练集表现一般,验证集与训练集无明显差异,称为高偏差),适当拟合,过拟合(样本差异过小,训练集表现良好,验证集表现一般,称为高方差)
在这里插入图片描述解决方法
高偏差可以使用更加复杂的网络进行训练,或者找到新的模型框架。
高方差可以增加实验的数据,或者正则化。

三 正则化

L2正则化
在这里插入图片描述
当正则化参数lambda设置非常大时,权重矩阵w接近于0的值。消除了隐藏单元的影响。最终网络会变得简单。

Dropout正则化
在这里插入图片描述
随机消除某概率的神经元,构成新的更加简洁的神经网络,具体实现如下(反向随机失活):
在这里插入图片描述
在计算机视觉领域应用广泛,由于通常输入图片数据不足,采用dropout进行预防正则化,但是它的缺点是代价函数由于随即损失变得不明确。

其他正则化方法
1 对于图像数据,可以进行水平翻转,剪裁等处理增加数据防止过拟合。
2 early stopping
在这里插入图片描述

四 归一化输入

第一步 零均值化,第二步 归一化方差
在这里插入图片描述
在这里插入图片描述
进行梯度下降时归一化后的数据更容易。

五 梯度消失与梯度爆炸

通过调整w实现对以上问题的解决。
在这里插入图片描述
对于ReLU函数 w通常设为2/n n为样本数量。
tanh函数 如上图所示。

  • 29
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值