机器算法实战中logistcal回归与SKlearn库算法对比

<<机器算法实战>>中logistcal回归中省略部分的推导

在该书中,第一版本的logistcal回归梯度上升优化算法中有几行代码:
log code
其中最后一行代码隐含了一个结论,即:
equation1

初次接触时难免会对该结论有些困惑。该结论的具体的推导过程如下:

这里写图片描述

<<机器算法实战>>中logistcal回归中系数的收敛

书中利用随机梯度下降法预测病马死亡率时,多次重复调用模型,可以看出错误率变动仍然会比较大。这说明回归系数并没有很好的收敛。适当修改梯度下降函数,记录每次迭代回归系数的变动



def colicTest():
    '''
    @fun: colicTest      --- 调用logistical regression训练函数,并返回模型的错误率
    @para: N/A
    @return: erroRate    --- 模型错误率
    '''
    #载入训练数据
    trainingFilePaht='horseColicTraining.txt'
    trainingData=[]
    trainingLabel=[]
    with open(trainingFilePaht) as fr:
        for line in fr.readlines():
            strList=line.strip().split()
            lineArray=[
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值