卷积神经网络
qq_14821323
这个作者很懒,什么都没留下…
展开
-
卷积神经网络的理解
连接1:https://zhuanlan.zhihu.com/p/27642620连接2:https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit连接3:https://zhuanlan.zhihu.com/p/30994790转载 2018-04-15 14:17:53 · 139 阅读 · 0 评论 -
Dropout理解
本文转自http://geek.csdn.net/news/detail/1612764. Dropout4.1 Dropout简介dropout是一种防止模型过拟合的技术,这项技术也很简单,但是很实用。它的基本思想是在训练的时候随机的dropout(丢弃)一些神经元的激活,这样可以让模型更鲁棒,因为它不会太依赖某些局部的特征(因为局部特征有可能被丢弃)。上图a是标准的一个全连接的神经网络,b是对...转载 2018-04-20 10:32:03 · 3038 阅读 · 0 评论 -
卷积神经网络之Batch Normalization的原理及实现
本文转载自http://geek.csdn.net/news/detail/1609061. 内容简介前面的部分介绍了卷积神经网络的原理以及怎么使用Theano的自动梯度来实现卷积神经网络,这篇文章将继续介绍卷积神经网络相关内容。首先会介绍DropOut和Batch Normalization技术,dropout可以提高模型的泛化能力。而Batch Normalization是加速训练收敛速度的非...转载 2018-04-20 16:54:36 · 7662 阅读 · 0 评论 -
Keras模型保存
本文转载自https://blog.csdn.net/u010159842/article/details/54407745我们不推荐使用pickle或cPickle来保存Keras模型你可以使用model.save(filepath)将Keras模型和权重保存在一个HDF5文件中,该文件将包含:模型的结构,以便重构该模型模型的权重训练配置(损失函数,优化器等)优化器的状态,以便于从上次训练中断的...转载 2018-05-12 12:17:09 · 245 阅读 · 0 评论 -
keras调优
本文转载自:https://blog.csdn.net/happytofly/article/details/80124813超参数优化是深度学习中的重要组成部分。其原因在于,神经网络是公认的难以配置,而又有很多参数需要设置。最重要的是,个别模型的训练非常缓慢。在这篇文章中,你会了解到如何使用scikit-learn python机器学习库中的网格搜索功能调整Keras深度学习模型中的超参数。阅读...转载 2018-05-13 10:25:44 · 250 阅读 · 0 评论