信数据得永生

CC BY-NC-SA 4.0 / 自豪地采用谷歌翻译

《Scikit-Learn与TensorFlow机器学习实用指南》第11章 训练深层神经网络

第11章 训练深层神经网络

来源:ApacheCN《Sklearn 与 TensorFlow 机器学习实用指南》翻译项目

译者:@akonwang @飞龙

校对:@飞龙 @Zeyu Zhong

第 10 章介绍了人工神经网络,并训练了我们的第一个深度神经网络。 但它是一个非常浅的 DNN,只有两个隐藏层。 如果你需要解决非常复杂的问题,例如检测高分辨率图像中的数百种类型的对象,该怎么办? 你可能需要训练更深的 DNN,也许有 10 层,每层包含数百个神经元,通过数十万个连接来连接。 这不会是闲庭信步:

  • 首先,你将面临棘手的梯度消失问题(或相关的梯度爆炸问题),这会影响深度神经网络,并使较低层难以训练。
  • 其次,对于如此庞大的网络,训练将非常缓慢。
  • 第三,具有数百万参数的模型将会有严重的过拟合训练集的风险。

在本章中,我们将依次讨论这些问题,并提出解决问题的技巧。 我们将从解释梯度消失问题开始,并探讨解决这个问题的一些最流行的解决方案。 接下来我们将看看各种优化器,与普通梯度下降相比,它们可以加速大型模型的训练。 最后,我们将浏览一些流行的大型神经网络正则化技术。

使用这些工具,你将能够训练非常深的网络:欢迎来到深度学习的世界!

阅读全文

阅读更多
想对作者说点什么? 我来说一句

Scikit-learnTensorflow机器学习手册

2017年11月02日 45.31MB 下载

没有更多推荐了,返回首页

不良信息举报

《Scikit-Learn与TensorFlow机器学习实用指南》第11章 训练深层神经网络

最多只允许输入30个字

加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!
关闭
关闭