【李宏毅机器学习·学习笔记】Tips for Training: Adaptive Learning Rate

本文介绍了AdaptiveLearningRate在深度学习中的应用,探讨了Adagrad、RMSProp、Adam等策略,以及LearningRateDecay和WarmUp的概念。课程参考了MIT-DeepLearning教程和相关论文,如ResidualNetwork和Transformer的优化方法以及RAdam的新进展。
摘要由CSDN通过智能技术生成

本节课主要介绍了Adaptive Learning Rate的基本思想和方法。通过使用Adaptive Learning Rate的策略,在训练深度神经网络时程序能实现在不同参数、不同iteration中,学习率不同。
本节课涉及到的算法或策略有:Adgrad、RMSProp、Adam、Learning Rate Decay、Warm Up。
本节课参考的资料有:
MIT-Deep Learning:https://www.deeplearningbook.org/
Adam:https://arxiv.org/pdf/1412.6980.pdf
Residual Network:https://arxiv.org/abs/1512.03385
Transformer:https://arxiv.org/abs/1706.03762
RAdam:https://arxiv.org/abs/1908.03265

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值