- 博客(5)
- 问答 (1)
- 收藏
- 关注
原创 通俗理解BN(Batch Normalization)
1. 深度学习流程简介1)一次性设置(One time setup)- 激活函数(Activation functions) - 数据预处理(Data Preprocessing) - 权重初始化(Weight Initialization) - 正则化(Regularization:避免过拟合的一种技术) - 梯度检查(Gradient che...
2020-04-01 22:04:04 3356
原创 B站吴恩达深度学习视频笔记(34)——为什么正则化可以防止过拟合
为什么正则化有利于预防过拟合呢?(Why regularization reduces overfitting?)为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?我们通过两个例子来直观体会一下。左图是高偏差,右图是高方差,中间是Just Right,这几张图我们在前面课程中看到过。现在我们来看下这个庞大的深度拟合神经网络。我知道这张图不够大,深度也不够,但你可以想象这是一个过...
2020-04-01 19:19:42 330 2
原创 B站吴恩达深度学习视频笔记(33)——正则化的解释
正则化(Regularization)深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但你可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少你的网络误差。如果你怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方法可能是正则化,另一个解决高方差的方法就是准备更多数据,...
2020-04-01 18:30:51 394
原创 B站吴恩达深度学习视频笔记(32)——神经网络训练的方差和偏差分析
这一节我们学习在神经网络学习训练时出现的结果进行分析,偏差和方差的表现和优化,仔细看好咯~偏差,方差(Bias /Variance)几乎所有机器学习从业人员都期望深刻理解偏差和方差,这两个概念易学难精,即使你自己认为已经理解了偏差和方差的基本概念,却总有一些意想不到的新东西出现。关于深度学习的误差问题,另一个趋势是对偏差和方差的权衡研究甚浅,你可能听说过这两个概念,但深度学习的误差很少权衡二...
2020-04-01 17:57:37 428
原创 B站吴恩达机器学习视频笔记(31)——网络训练验证测试数据集的组成介绍
从今天开始我们进入新的一个大方向了,改善深层神经网络:超参数调试、正则化以及优化,首先进入深度学习的一个新层面,先认识下在深度学习中的数据集的分类。之前可能大家已经了解了神经网络的组成的几个部分,那么我们将继续学习如何有效运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。训练,验证,测试集(Train / Dev / Test...
2020-04-01 15:16:57 397
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人