2.机器学习笔记第二周

文章介绍了梯度下降算法,它是优化算法的一种,通过每次向代价函数下降最快的方向移动来寻找最小值。学习率α影响着下降速度,太小会慢,太大可能错过最小值。在接近最小值时,导数自然变小,这一特性在算法设计中十分巧妙。线性回归中也应用了梯度下降。然而,作者表示因高数基础不足,对某些数学细节理解困难,本周学习进度受限。
摘要由CSDN通过智能技术生成

梯度下降:

就是最优选择算法的图形化表示:一个站在山顶的人,每秒走绝对小的一步,他朝着什么方向移动可以最快到达山脚。

接下来是梯度运算的数学解法:

:=是赋值的意思,a:=b就是a无论什么值,都是等于b

α在此处是学习率,也就是一次性迈多大的步子,决定我们让代价函数一次性下降多大的距离,如果是批量的学习,α是统一的。对于α左边的先保留

下面那个算法是表示同步更新

 解释斜率,后面那个导数就代表斜率,所以无论斜率正负,只要是靠近最小值,对算法来说都是有益的尝试

 关于学习了α太小或者太大,太小会导致学习速率很慢,很久才能接近最佳点,太大数据有可能不离散,错过最佳点

 优算法,由于固定学习率α有一些弊端,所以设定学习率减小随着导数减小,就可以很大程度节约开头算力,算力运用效率大大提升。

但是实际上这个是不用,α是一个固定值,而且一旦越接近最低点,导数自然是越来越小,无论是正还是负,都是越趋近最小值越小,所以这个算法很绝妙。

 线性回归的梯度下降,将梯度下降算法运用到线性回归里面

 接下来一段为摘抄,我没理解的数学算法

 

BAD 由于高数不太好,听不懂了,裂开,我学的第一个算法就因为高数学不会了。

本周总结:这周确实没怎么学懂算法,我单独理解了两个分算法的意思,但是在把他们合起来的时候,由于偏导数和一些知识,导致我没有听清楚我学到的第一个算法,很裂开。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

modest —YBW

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值