机器学习手记[9]--线性回归linear regression

线性回归的最直接目标就是最小二乘,也即均方误差最小。sum( (y-x.T*w)**2)最小

这个式子是极值点,导数为0,我们求得w=(xTx)-1 * x * y 


关键在于矩阵的划分,

一般的线性关系,可以理解为y=wx+b

通过进一步抽象可以转换为y= [w,b]*[x,1] .T = WX 


from numpy import *
'''
    filename文件格式类似
    1    0.12134  0.2141
    1    0.62131  0.9222
    1    0.13134  0.7333
'''
def txt2data(filename):
    filename='ex0.txt'
    lineArray=open(filename).readlines()
    yArr=[]
    xArr=[]

    #y=wx+b ---可转换成--> y=[w,b]*[x,1].T---可转换成-->y=WX  
    for line in lineArray:
        pointData=line.strip().split('\t')  #去除\n,分割字串
        xBlock=[]
        xBlock.append(float(pointData[0]))
        xBlock.append(float(pointData[1]))
        xArr.append(xBlock)
        yArr.append(float(pointData[2]))
    return xArr,yArr
    
        
def linearRegression(xArr,yArr):
    xMat=mat(xArr)   #200*2
    yMat=mat(yArr).T #200*1
    xTx=xMat.T*xMat
    w=xTx.I*xMat.T*yMat # [2*2]  [2*200] [200*1] =[2*1]

    yHat=xMat*w  #200*2   2*1=200*1
    coefMat=corrcoef(yMat.T,yHat.T)
    return w, coefMat
       
    

参考资料---《机器学习实战》

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值