logistic regression中的梯度上升法

1.梯度上升法

def gradascent(datamatin,classlabels):
    datamat=mat(datamatin)
    labelmat=mat(classlabels).transpose()
    m,n=shape(datamat)
    alpha=0.001
    maxcycles=500
    weights=ones((n,1))
    for k in range(maxcycles):
        h=sigmoid(datamat*weights)
        error=(labelmat-h)
        weights=weights+alpha*datamat.transpose()*error
    return weights
    

2.随机梯度上升法(在线学习法)

def stoGradAscent(datamat,classlabels):
    datamat=mat(datamat)
    classlabels=mat(classlabels).transpose()
    m,n=shape(datamat)
    alpha=0.01
    weights=ones((n,1))
    for i in range(m):
        print(datamat[i])
        print(weights)
        h=sigmoid(sum(datamat[i]*weights))
        error=classlabels[i]-h
        
        weights=weights+alpha*error*datamat[i]
    return weights
        


3.改进的随机梯度上升法

def stoGradAscent2(datamat,classlabels,numiter=150):
    datamat=mat(datamat)
    classlabels=mat(classlabels).transpose()
    m,n=shape(datamat)
    weights=ones((n,1))
    dataIndex=range(m)
    for j in range(numiter):
        for i in range(m):
            alpha=4/(1.0+j+i)+0.01
            randIndex=int(random.uniform(0,len(dataIndex)))
            h=sigmoid(sum(datamat[randIndex]*weights))
            error=classlabels[randIndex]-h
            weights=weights+alpha*error*datamat[randIndex]
            del(list(dataIndex)[randIndex])
    return weights


  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值