[机器学习入门] 李宏毅机器学习笔记-10 (Tips for Deep Learning;深度学习小贴士)

这篇博客介绍了深度学习中的一些实用技巧,包括为何更深的网络不一定更好,如vanishing gradient问题,以及解决策略如ReLU和Maxout激活函数。此外,还讨论了适应性学习率的RMSProp、优化参数的Momentum和Adam算法。在测试数据上表现不佳时,提出了早停策略、正则化和Dropout等方法。
摘要由CSDN通过智能技术生成

[机器学习入门] 李宏毅机器学习笔记-10 (Tips for Deep Learning;深度学习小贴士)

PDF VIDEO

Recipe of Deep Learning

这里写图片描述
这里写图片描述


在 training data上的performance不好

这里写图片描述


Deeper usually does not imply better

这里写图片描述


Vanishing Gradient Problem

这里写图片描述
这里写图片描述
这里写图片描述


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值