梯度下降法求解线性回归之python实现

线性回归其实就是寻找一条直线拟合数据点,使得损失函数最小。直线的表达式为:

yi=ω1xi,1+ω2xi,2+ωjxi,j+...+b

损失函数的表达式为:
J=12i=0m(yiypredict_i)2

其中m为数据点总数。
现在我们使用梯度下降法求解函数 J 的最小值,梯度下降法原理示意图如下:

这里写图片描述
如上图所示,只要自变量x沿着负梯度的方向变化,就可以到达函数的最小值了,反之,如果沿着正梯度方向变化,就可以到达函数的最大值。
我们要求解 J 函数的最小值,那么就要求出每个ω的梯度和 b 的梯度,由于梯度太大,可能会导致自变量沿着负梯度方向变化时,J的值出现震荡,而不是一直变小,所以在梯度的前面乘上一个很小的系数 α
由以上可以总结出 ω b 的更新公式:

ωj=ωjαJ(ωj)

b=bαJ(b)

梯度公式(其实就是求导而已):
J(ωj)=Jωj=i=0m(yiypredict_i)(xi,j)=i=0m(ypredict_iyi)xi,j

J(b)=Jb=i=0m(ypredict_iyi)

系数 α 如果随着迭代的进行越来越小的话,有利于防止迭代后期震荡的发生,是算法收敛, α 的更新公式:
α=1i+1+0.001

其中i是迭代次数,起始为0
下面为使用python具体实现梯度下降法求解线性回归
原始数据:

x = np.arange(-2,2,0.1)
y = 2*x+np.random.random(len(x))
x = x.reshape((len(x),1))
y = y.reshape((len(x),1))

这里写图片描述

开始迭代:

for i in range(maxgen):
    alpha = 1/float(i+1)+alpha0
    e = np.dot(x,seta.reshape((len(seta),1)))+b-y # 二维列向量
    mse = np.linalg.norm(e)
    delta_seta = np.dot(e.T,x)[0]
    delta_seta_norm = np.linalg.norm(delta_seta)
    b = b-alpha*np.sum(e)
    seta = seta-alpha*delta_seta
    print u'迭代次数:',i
    print u'梯度:',delta_seta_norm,'seta',seta,'b:',b,'mse',mse
    print 'alpha:',alpha,'sum(e):',sum(e)

算法运行结果:
这里写图片描述


这里写图片描述
如上图所示,最后梯度的值逐渐降为0,说明达到的 J <script type="math/tex" id="MathJax-Element-20">J</script>的极值点。

  • 0
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值