机器学习之梯度下降算法

前言

因为是CV出身的,转了推荐算法,前面也写了很多关于推荐算法的东西,但是最近写的有点疲了,思前想后决定先放一下推荐算法的基础模型。这几天先写一下机器学习和深度学习的东西,各个领域融会贯通一下。梯度下降算法是求解无约束多元函数极值最常用的数值方法, 很多机器学习常用算法和神经网络都是以它作为算法框架进行优化参数。 所以这个算法非常重要。梯度下降也是一种优化算法, 通过迭代的方式寻找使模型目标函数达到最小值时的最优参数, 当目标函数为凸函数的时候,梯度下降的解是全局最优解,但在一般情况下,梯度下降无法保证全局最优

介绍梯度下降之前按先讲一下为什么大家公认的负梯度方向是f ( x ) 减小最快的方向, 这背后又又又又涉及到了泰勒的知识, 所以首先就来看看这个问题, 简单推导一下为啥是负梯度方向。

一、Why负梯度方向下降最快

众所周知,沿梯度方向的方向导数可以来描述函数的最大变化率,即梯度方向是函数变化率最大的方向,这个也是梯度的定义。这里不太明白的小伙伴可以先去看一下这方面的数学知识,在这里我就不搬运教材图片了。这里我们假设函数f ( θ ) 是一个多元函数, 那么我们由泰勒把这个函数进行展开至一阶导数的位置, 就会得到:

我们知道这里的f ( θ ) , f ( \theta_0 )是个值,也就是标量, 而加号后面那两个是向量, 但是点积之后就成了标量。我们可以令θ − \theta_0=ηv, 即一个向量可以分解为一个长度和一个方向的乘积, 这里的η 表示步长, 这里的v 表示方向, 那么就可以对上面式子进行化简:

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值