逻辑回归python实现实例

这篇博客通过《机器学习实战》中的马疝病数据集,展示了如何用Python实现逻辑回归。内容包括处理数据集中的缺失值,采用批处理梯度下降法训练模型,并探讨了特征归一化对模型性能的影响。在未归一化处理的情况下,模型在训练集和测试集上的准确率分别为73%和78%;归一化后,准确率稍有下降,但训练效率提升。
摘要由CSDN通过智能技术生成

这个例子是《机器学习实战》(<machine learning in action>)逻辑回归的一个实例:从疝气病症预测病马的死亡率。


疝病是描述马胃肠痛的术语。该数据集中包含了医院检查马疝病的一些指标,我们的目标是通过这些指标(特征),来预测马是否会死亡。

数据集包括229个训练样本和67各测试样本,特征数量为22。数据集中包含缺失值,采取的措施是用0替换所有缺失值,这样做的原因是,我们在更新theta值时使用下式(具体参考上一篇),当某个特征值缺失时,我们如果用0来替代,则对应的theta值不会被更新(公式右边第二项=0),即缺失值不会对参数造成影响。


以下为python代码,由于训练数据比较少,这边使用了批处理梯度下降法,没有使用增量梯度下降法。

##author:lijiayan
##data:2016/10/27
##name:logReg.py
from numpy import *
import matplotlib.pyplot as plt


def loadData(filename):
    data = loadtxt(filename)
    m,n = data.shape
    print 'the number of  examples:',m
    print 'the number of features:',n-1
    x = data[:,0:n-1]
    y = data[:,n-1:n]
    return x,y


#the sigmoid function
def sigmoid(z):
    return 1.0 / (1 + exp(-z))


#the cost function
def costfunction(y,h):
    y = array(y)
    h 
逻辑回归Python代码实例可以如下所示: ```python import numpy as np def sigmoid(z): return 1 / (1 + np.exp(-z)) def train(x, y, iter_max=1000, alpha=0.00001): """ 模型训练逻辑 :param x: :param y: :param iter_max: :param alpha: :return: """ size = np.shape(x)[1] w = np.mat(np.ones((size, 1))) for _ in range(iter_max): p0 = sigmoid(np.dot(w.T, x.T)) w_derivative = np.dot((p0 - y), x) w = w - alpha * w_derivative.T return w ``` 在这个代码示例中,`sigmoid`函数是逻辑回归中的激活函数,将输入的`z`值转换为一个概率值。`train`函数是用来训练逻辑回归模型的,其中`x`是输入的特征矩阵,`y`是相应的标签值,`iter_max`是迭代的最大次数,默认为1000次,`alpha`是学习率,默认为0.00001。在每次迭代中,通过计算预测概率值`p0`,然后根据预测值与真实值的差异来更新权重`w`,直到达到最大迭代次数或收敛为止。最后返回训练好的权重`w`。 这段代码可以用来实现逻辑回归模型的训练,根据输入的特征和标签数据,通过梯度下降的方法来更新权重,从而得到适合分类任务的模型。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [逻辑回归模型及案例(Python)](https://blog.csdn.net/qq_42433311/article/details/124124893)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [逻辑回归——python实例](https://blog.csdn.net/weixin_41579863/article/details/110859335)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值