python调包侠_sklearn调包侠之逻辑回归

本文介绍了正则化作为防止过拟合的方法,特别是L1和L2范数在逻辑回归中的作用。L1范数使模型参数变得稀疏,而L2范数则促使参数尽量小但不为0。通过乳腺癌检测数据集的实战例子,展示了L1正则化如何提升模型性能,并通过模型参数观察到许多特征权重为0,验证了L1范数的稀疏化效果。
摘要由CSDN通过智能技术生成

算法原理

正则化

这里补充下正则化的知识。当一个模型太复杂时,就容易过拟合,解决的办法是减少输入特征的个数,或者获取更多的训练样本。正则化也是用来解决模型过拟合的一种方法。常用的有L1和L2范数做为正则化项。

L1范数

L1范数作为正则化项,会让模型参数θ稀疏话,就是让模型参数向量里为0的元素尽量多。L1就是在成本函数后加入:

L2范数

而L2范数作为正则化项,则是让模型参数尽量小,但不会为0,即尽量让每个特征对预测值都有一些小的贡献。L2就是在成本函数后加入:

实战——乳腺癌检测

数据导入

本次实战依旧是使用sklearn中的数据集,如图所示。

from sklearn.datasets import load_breast_cancer

cancer = load_breast_cancer()

print(cancer.DESCR)

切分数据集

X = cancer.data

y = cancer.target

from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=33)

模型训练与评估

逻辑回归算法使用sklearn.linear_model 模块中的LogisticRegression方法。常用的参数如下:

penalty:设置正则化项,其取值为'l1'或'l2',默认为'l2'。

C:正则化强度,C越大,权重越小。

from sklearn.linear_model import LogisticRegression

model = LogisticRegression()

model.fit(X_train, y_train)

model.score(X_test, y_test)

# result

# 0.94736842105263153

我们换为L1范数:

model2 = LogisticRegression(penalty='l1')

model2.fit(X_train, y_train)

model2.score(X_test, y_test)

# result

# 0.95614035087719296

这里查看模型的参数,发现确实有很多特征的参数为0。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值