- 博客(2)
- 资源 (13)
- 收藏
- 关注
原创 深度学习炼丹师的养成之路之——Batch size/Epoch/Learning Rate的设置和学习策略
这个名字好长啊。。 但是,考虑到每一次训练都要耗费长达数日的GPU时间,每次启动训练前,细致而缜密的前期准备工作其实非常必要而且至关重要,这直接影响着数日之后的loss和最终的performance。首先推荐的一个文章是前几日看到的,知乎上谭旭的一个回答,谈到了最近facebook的training ImageNet in one hour,比较详细地阐释了batch size的大小对收敛性
2017-11-06 13:34:49 21331 1
原创 深度学习炼丹师的养成之路之——How to subtract the mean value
今天这个文章题目的名字好啰嗦啊,其实主要是为了提醒自己要有“工匠精神”,在深度学习的修炼之路上学会有耐心,慢工出细活。如果到头来只会盲目地堆网络和试参数,这就背离了修炼的正轨了。好了,闲话不多说。今天主要写的是一个关于在transfer learning的时候,需要注意的问题。虽然是一个看似不起眼的细节,但是须知这些小小的细节有时候却能左右DL的learning过程,从而对最后的模型产生潜移默化的影
2017-11-02 21:45:15 2422
UFLDL exercise9 Convolution and Pooling
2016-04-13
UFLDL exercise8 Linear Decoder
2016-04-12
UFLDL exercise7 Stacked Autoencoder
2016-04-11
UFLDL exercise5 Softmax Regression
2016-04-11
UFLDL exercise6 Self-Taught Learning
2016-04-09
UFLDL exercise3&4 PCA and Whitening
2016-04-09
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人