系列笔记 | 深度学习连载(2):梯度下降

点击上方“AI有道”,选择“星标”公众号

重磅干货,第一时间送达

我们回忆深度学习“三板斧”:

1. 选择神经网络

2. 定义神经网络的好坏

3. 选择最好的参数集合

其中步骤三,如何选择神经网络的好坏呢?

梯度下降是目前,最有效的方法之一。

方法:我们举两个参数的例子 θ1、θ2, 损失函数是L。那么它的梯度是:

那我为了求得最小值,我们有:

参数不断被梯度乘以学习率η 迭代

那么上述公示公为什么是减号,不是加号呢?

我们定义 θ 改变的方向是movement的方向, 而gradient的方向是等高线的法线方向

基础的Gradient Decent已经介绍完了,接下来,我们一起探讨GD的使用技巧。

Learning rate学习率的设定

Learning Rate η 如果设定不好,Loss反而增大

自适应的学习率 adaptive learning rate

很多小伙伴在机器学习代码中,学习率一般都是设置为一个固定的数值(需要不断调参)。

根据学习经验,一般的我们有如下结论:

1. 训练刚开始的时候,学习率较大

2. 经过几轮训练后,结果慢慢接近的时候,需要调小学习率

Adagrad 的学习率是现有学习率 除以 导数的平方和的开根号

Stochastic Gradient Decent (SGD)

让训练更加快速

一般的GD方法是所有的训练数据后,进行一次参数更新

SGD是一个样本就可以更新参数

GD和SGD的对比效果:

特征裁剪 Feature Scaling

让不同维度的数据,有相同的变化幅度

训练的时候,哪一个好train,一目了然

归一化方法:

总结: Gradient Decent 是机器学习、深度学习求解Optimal问题的“普世”方法,但是也会遇到很多问题,例如local minima 和 saddle point 的问题。 我们以后会展开讨论。

本专栏图片、公式很多来自台湾大学李弘毅老师、斯坦福大学cs229、cs231n 、斯坦福大学cs224n课程。在这里,感谢这些经典课程,向他们致敬!

作者简介:武强 兰州大学博士,谷歌全球开发专家Google Develop Expert(GDE Machine Learing 方向) 

CSDN:https://me.csdn.net/dukuku5038 

知乎:https://www.zhihu.com/people/Dr.Wu/activities 

漫画人工智能公众号:DayuAI-Founder

系列笔记: 

系列笔记 | 深度学习连载(1):神经网络

           


推荐阅读

(点击标题可跳转阅读)

干货 | 公众号历史文章精选

我的深度学习入门路线

我的机器学习入门路线图

重磅!

林轩田机器学习完整视频和博主笔记来啦!

扫描下方二维码,添加 AI有道小助手微信,可申请入群,并获得林轩田机器学习完整视频 + 博主红色石头的精炼笔记(一定要备注:入群 + 地点 + 学校/公司。例如:入群+上海+复旦。 

长按扫码,申请入群

(添加人数较多,请耐心等待)

 

最新 AI 干货,我在看 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

红色石头Will

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值