Stanford CS231n 课程笔记 || 参数更新、数据预处理、权重初始化、批量归一化、正则化

一般情况下,对于正则化(规则化)方法,通常使用batch normalization就可以了,它可以帮助收敛,特别是非常深的网络。如果仍然过拟合,可以增加dropout或一些其他的东西。

关于神经网络参数更新,强烈推荐这篇文章:

An overview of gradient descent optimization algorithms

参考链接:

CS231n课程笔记翻译:神经网络笔记 2

CS231n课程笔记翻译:神经网络笔记3(下)

深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)

 

详细参考:https://zhuanlan.zhihu.com/p/47136505

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值