回答来自知乎问题:深度学习调参有哪些技巧?
learning rate:0.01
momentum:0.9
weight decay:0.005
进行dropout防止过拟合,相当于多个网络ensemble
进行batch normalization可以有效加快训练速度,防止过拟合
参数初始化无脑用Xavier
微调网络: caffe微调网络时的注意事项
1.数据集
2.参数设置使其不更新
回答来自知乎问题:深度学习调参有哪些技巧?
learning rate:0.01
momentum:0.9
weight decay:0.005
进行dropout防止过拟合,相当于多个网络ensemble
进行batch normalization可以有效加快训练速度,防止过拟合
参数初始化无脑用Xavier
微调网络: caffe微调网络时的注意事项
1.数据集
2.参数设置使其不更新