- 博客(5)
- 资源 (6)
- 收藏
- 关注
原创 推荐一个数据集——Fashion-MNIST
推荐一个数据集——Fashion-MNIST        今天看到女票大人在做project,还在用mnist手写体识别的数据集(链接:http://yann.lecun
2018-05-22 21:01:53 13428 2
原创 深度学习中优化方法——momentum、Nesterov Momentum、AdaGrad、Adadelta、RMSprop、Adam
深度学习中优化方法—momentum、Nesterov Momentum、AdaGrad、Adadelta、RMSprop、Adam—        我们通常使用梯
2018-05-22 19:50:59 67392 46
原创 几种梯度下降方法对比(Batch gradient descent、Mini-batch gradient descent 和 stochastic gradient descent)
几种梯度下降方法对比(Batch gradient descent、Mini-batch gradient descent 和 stochastic gradient descent)        我们在训练神经网络模型时,最常用的就是梯度下降,这篇博客主要介绍下几种梯度下降的变种(mini-ba
2018-05-09 22:16:15 39358 4
原创 gradient checking(梯度检验)
Gradient Checking(梯度检验)        我们有时候实现完backward propagation,我们不知道自己实现的backward propagation到底是不是完全正确的(这篇博客只面向自己手撸的网络,直接搬砖的不需要考虑这个问题…..),因此,通常要用梯度检验来检查自
2018-05-08 21:53:02 4933 3
原创 Dropout Regularization(丢弃正则化)
Dropout Regularization(丢弃正则化) 为了防止过拟合的问题,我们最常使用的手段就是L2正则化,即在代价函数后面加一个L2正则项。关于L2正则化,我前面的博客已经讲了很多次了,这里就不在赘述了。这篇博客主要介绍下dropout regularization(丢弃正则化),dropo...
2018-05-07 00:01:08 9804 3
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人