随机梯度下降

本文介绍了机器学习中基本的优化算法—梯度下降算法和随机梯度下降算法,以及实际应用到线性回归、Logistic回归、矩阵分解推荐算法等ML中。

梯度下降算法基本公式

常见的符号说明和损失函数

X :所有样本的特征向量组成的矩阵 
x(i) 是第i个样本的包含的所有特征组成的向量x(i)=x(i)1,x(i)2...,x(i)n 
y(i))第i个样本的label,每个样本只有一个label,y(i)是标量(一个数值) 
hθ(x(i)) :拟合函数,机器学习中可以用多种类型的拟合函数 
θ 是函数变量,是多个变量的向量 θ=[θ1,θ2,...] 
|hθ(xi)y(i)| :拟合绝对误差 
求解的目标是使得所有样本点(m个)平均误差最小,即:

argminθ 1mi=1m|hθ(x(i))y(i)|

或者平方误差最小,即: 
argminθ 12mi=1m(hθ(xi)y(i))2

argmin表示使目标函数取最小值时的变量值(即θ)值。

 

其中 

J(θ)= 12mi=1m(hθ(x(i))y(i))2
或 
J(θ)=  1mi=1m|hθ(x(i))y(i)|

都被成为损失函数(Cost Function) 
J(θ)不只是上面两种形式,不同的机器学习算法可以定义各种其它形式。

 

梯度下降迭代公式

为了求解θ=[θ1,θ2,...]的值,可以先对其赋一组初值,然后改变θ的值,使得J(θ)最小。函数J(θ)在其负梯度方向下降最快,所以只要使得每个参数θ按函数负梯度方向改变,则J(θ)能最快找到最小值。即 

θj:=θjαθjJ(θ)

这就是梯度下降算法的迭代公式,其中α表示步长,即往每次下降最快的方向走多远。

 

线性回归

以多变量线性回归为例: 
拟合函数如下: 

hθ(x)=θ0+θ1x1+θ2x2+...+θnxn=θTx

损失函数定义为: 
J(θ)= 12mi=1m(hθ(x(i))y(i))2θT=[θ1,θ2,...]

 

θjJ(θ)求解过程还是很简单的(复合函数链式法则)。(hθ(x(i))y(i))2θj求导得到2(hθ(x(i))y(i))hθ(x)=θ0+θ1x1+θ2x2+...+θnxn=θTxθj求导得到xj。因此迭代更新公式为: 

θj:=θjα1mi=1m(hθ(x(i)y(i)))xj(i),xj(i)ijm

 

Logistic回归

代价函数: 
以Sigmoid函数(Logistic函数)为例说明: 

hθ(x)=11+eθTx

代价函数定义: 
只处理binary分类问题,即y(i)不等于0,就等于1. 
J(θ)=1mi=1m[(y(i)loghθ(x(i))+(1y(i))log(1hθ(x(i)))]

看起来是不是很复杂? 其实可以继续分解: 
当y=0时(全部y(i)=0): 
J(θ)=1mi=1mlog(1hθ(x(i)))

当y=1时(全部y(i)=1): 
J(θ)=1mi=1mloghθ(x(i))

为什么这么定义代价函数呢?我自己通俗理解是,求导后形式简洁,而且: 
y=0,hθ(x)范围为[0,0.5),越接近0.5,代价越高: 
这里写图片描述 
由上图可以看出:log(1hθ(x(i)))可以很好衡量某一个样本的代价。

 

y=1时,hθ(x)范围为(0.5,1],越接近0.5,代价越高: 
这里写图片描述 
同样由上图可以看到:loghθ(x(i))可以很好衡量某一个样本的代价。

迭代更新公式: 
求导过程蛮复杂的,直接给出结果吧: 

θj:=θjα1mi=1m(hθ(x(i)y(i)))xj(i),xj(i)ijm

和线性回归中最后给的更新迭代公式是一模一样的,这也就理解了为什么代价函数设计时比较复杂,还套了log,敢情是为了这?? 
总之logisitc回归和线性回归最终使用的是一模一样的优化算法。 
还可将这个公式写成用向量来表达的形式: 
θ:=θjα1mi=1m([hθ(x(i)y(i)))x(i)],θx(i)

 

矩阵分解的推荐算法

可以参考我转载的另一篇文章: 
http://blog.csdn.net/qq_34531825/article/details/52330907

随机梯度下降(SGD)

stochastic gradient descent

从梯度上升算法公式可以看出,每次更新回归系数θ时都需要遍历整个数据集。该方法在处理100个左右的数据集尚可,但是如果有数十亿的样本和成千万的特征,这种方法的计算复杂度就太高了。一种改进的方法是一次仅用一个样本点来更新回归系数。由于可以在新样本到来时,对分类器进行增量更新,因此是一个“在线学习”算法,而梯度下降算法一次处理所有的数据被称为“批处理”。更新公式如下: 

θj:=θjα(hθ(x(i)y(i)))xj(i)

 

参考文献

(1)Stanford机器学习—第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization 
http://blog.csdn.net/abcjennifer/article/details/7716281?locationNum=2 
(2)机器学习入门:线性回归及梯度下降 
http://blog.csdn.net/xiazdong/article/details/7950084 
(3)梯度下降深入浅出 
http://binhua.info/machinelearning/%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D%E6%B7%B1%E5%85%A5%E6%B5%85%E5%87%BA

 
0
 
0
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值