LogisticRgression_python

#coding:utf-8
from numpy import *
def loaddata():
    datamat=[]
    label=[]
    fr=open("testSet.txt")
    for line in fr.readlines():
        arr=line.strip().split()
        datamat.append([1.0,float(arr[0]),float(arr[1])])#其中1.0表示回归方程的初始截距,即x0=1.0
        label.append(int(arr[-1]))
    return datamat,label
def sigmoid(x):
    return 1.0/(1+exp(-x))
def linerre(datamat,label):#梯度上升
    datamatrix=mat(datamat)
    labelmat=mat(label).transpose()
    m,n=shape(datamatrix)
    w=ones((n,1))
    for k in range(1000):
        h=sigmoid(datamatrix*w)#实际输出向量||datamatrix*w当特征较多是,这将是一个很大的矩阵,计算有时会很困能
        err=(labelmat-h)#误差向量
        w=w+0.001*datamatrix.transpose()*err#权值更新
    return w
def classifier(w,inputdata):
    wmatrix=mat(w)
    inputmatrix=mat(inputdata)
    val=sigmoid(inputmatrix*wmatrix.transpose())
    if val>0.5:
        return 1
    else:
        return 0
def randgradient(datamatrix,label):#随机梯度上升
    m,n=shape(datamatrix)
    w=ones(n)
    tm=0.0
    for i in range(m):
        d=sigmoid(sum(datamatrix[i]*w))#单个样本的实际输出
        err=label[i]-d#单个样本的误差
        w=w+0.01*err*datamatrix[i]#更新权值
    return w
datamat,label=loaddata()
print classifier(randgradient(array(datamat),label),[1,1.217916,9.597015])

 

转载于:https://www.cnblogs.com/semen/p/6965035.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值