[python]线性回归实现linear regression

#线性回归,梯度下降法
#by cjf@xmu

#参数n个点,返回线性方程参数a,b,y=ax+b
import math
def linear(points):  
  a=10.0
  b=1.0
  learning_rate=1e-2
  #loss=1/(2n)*sigmal(sqr(a*xi+b-yi))
  #求loss对a,b的偏导,梯度下降法
  while True:
    #求偏导
    der_a=0.0
    der_b=0.0
    for xi,yi in points:
      der_a+=a*xi*xi+b*xi-xi*yi
      der_b+=a*xi+b-yi 
    der_a/=len(points)
    der_b/=len(points)
    #学习
    a-=learning_rate*der_a
    b-=learning_rate*der_b 
    print("%f %f" %(a,b))
    if math.fabs(der_a)<1e-7 and math.fabs(der_b)<1e-7:
      return a,b

if __name__=="__main__":
  print(linear([(1,0),(2,1)]))#,(3,2),(0,1),(1,2),(2,3)]))

华为的比赛想试试线性回归,网上搜了下,发现怎么代码怎么长,还用到各种库。

干脆自己写一个。

梯度下降法实现,类似神经网络bp算法。

另外,此方法可能出现http://blog.csdn.net/vcvycy/article/details/79520163 这里的问题。

导致梯度下降法发散无法收敛:要么降低学习率,要么数据归一化。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值