7.6 非线性回归算法应用

Python 实现:

import numpy as np
import random




#m demoted the number of examples here,not the number of feature
def gradientDescent(x,y,theta,alpha,m,numIterations):
    xTrans=x.transpose()
    for i in range(numIterations):
        hypothesis=np.dot(x,theta)
        loss=hypothesis-y
        cost=np.sum(loss**2)/(2*m)
        print("iteration %d | cost:%f" % (i,cost))
        gradient=np.dot(xTrans,loss)/m
        theta-=alpha*gradient
    return theta




def getData(numPoint,bias,variance):
    x=np.zeros((numPoint,2))
    y=np.zeros(shape=numPoint)
    for i in range(numPoint):
        x[i][0]=1
        x[i][1]=i
        y[i]=(i+bias)+random.uniform(0,1)*variance
    return x,y

#gen 100 point with a bias of 25 and 10 variance as a bit of noise
x,y=getData(100, 25,10)
m,n=np.shape(x)
numIteration=100000
alpha=0.0005
theta=np.ones(n)
print theta
theta=gradientDescent(x, y, theta, alpha, m, numIteration);
print(theta)


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值