《机器学习》 逻辑回归 大批量数据的下采样 <8>

目录

 一、案例文件

二、下采样流程

1、流程图示

2、具体流程介绍

1)切分原数据集        

2)合并数据集

3)切分合并的数据集        

4)k折交叉运算

5)导入数据进行测试

6)修改阈值

4、什么是k折交叉验证

5、什么是修改阈值

三、完整代码实现

代码输出结果如下:

1)最初的样本分类情况

2)处理后的数据的混淆矩阵:

3)最终打印输出结果

四、总结:


 一、案例文件

同样使用上节课的银行贷款案例,其文件内容大致如下:(共28万多条,31列)

现在要继续接着上节课的内容对模型进行优化

二、下采样流程

1、流程图示

2、具体流程介绍

1)切分原数据集        

        大量数据的文件data,其中有28万多条数据类别为0类的和480多条数据类别为1类的,对这28万多条数据随机取出和类别为1的数目相同条数的数据

data1 = a.sample(len(b))  # 使用sample方法,从a数据集中切出长度等于b的数据,将得到的数据赋值给data1

2)合并数据集

        将取出的480条数据和原先类别为1的数据合并,得到一个小数据集data_c,共480x2条数据

# 使用pandas中的concat合并两个数据集
data = pd.concat([train_1,train_2])
3)切分合并的数据集        

        对这960条数据随机取样取出其中的百分之20当做测试集test,百分之80当做训练集train

4)k折交叉运算

        再对这个训练集进行k折交叉验证得到最优的C值,然后在建立模型,导入最优C值,再对这个训练集train进行训练

c = [0.01,0.1,1,10,100]
for i in c:
    model = LogisticRegression(C=i)
    score = c(model,x_train,y_train,cv=8,scoring='recall')  # 使用模型model对数据集进行8折交叉运算
    print(score)

5)导入数据进行测试

        把小数据集分出来的百分之20的测试集导入模型,对其进行预测,来观察其召回率以及精确率情况,小数据集测完再去对将原始数据随机取出百分之20的数据当做测试集,再输入模型对其预测

model = LogisticRegression(C=best_c) # 导入上个步骤求得的最优C值
lr.fit(x_train,y_train)  # 对数据进行训练
6)修改阈值

        此时发现概率可能还是不高,那么再使用一种方法,也就是修改阈值的方法对其进行处理,取阈值为0.1-0.9这个阶段,分别测试其召回率,最后就可以得到最优模型,完成训练。

4、什么是k折交叉验证

        k折交叉验证是一种常用的模型评估方法。它将数据集分成k个子集,每次使用其中的k-1个子集作为训练集,剩下的1个子集作为验证集,然后对模型进行训练和评估。这个过程重复k次,每次使用不同的子集作为验证集。最终,将k次评估的结果平均得到模型的性能指标,如准确率、精确度、召回率等。

5、什么是修改阈值

        修改阈值是指在特定的系统或算法中,调整阈值的数值以达到不同的效果或目标。

        阈值是一个临界点,用于判断某个输入值是否满足某种条件或达到某个标准。在很多应用中,阈值的设定对结果的准确性和可靠性至关重要。通常情况下,阈值的设定是根据具体需求和应用场景进行的。

三、完整代码实现

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from pylab import mpl

# 可视化混淆矩阵,网上都是包装好的,可以直接复制使用
def cm_plot(y, yp):
    from sklearn.metrics import confusion_matrix
    import matplotlib.pyplot as plt

    cm = confusion_matrix(y, yp)
    plt.matshow(cm, cmap=plt.cm.Blues)
    plt.colorbar()
    for x in range(len(cm)):
        for y in range(len(cm)):
            plt.annotate(cm[x, y], xy=(y, x), horizontalalignment='center',verticalalignment='center')
            plt.ylabel('True label')
            plt.xlabel('Predicted label')
    return plt

data = pd.read_csv(r'./creditcard.csv')
data.head()  # 默认输出前5行,这里用来提示防止忘记代码了

# 设置字体,用来显示中文
mpl.rcParams['font.sans-serif'] = ['Microsoft YaHei']
mpl.rcParams['axes.unicode_minus'] = False

# 同级class列中每个类型的数据个数,(这里的样本极度不均衡)
labels_count = pd.value_counts(data['Class'])
# 可视化上述分类数据的个数
plt.title("正负例样本数")
plt.xlabel('类别')
plt.ylabel('频数')
labels_count.plot(kind='bar')
plt.show()

# 将Amount列的数据进行Z标准化,因为其余列的值有负值,所以不能使用0-1归一化
# 导入库的用法
from sklearn.preprocessing import StandardScaler
# z标准化
scaler = StandardScaler()  # 这是一个类,专门用来处理z标准化,适合处理大量数据的类,还有一种叫scale,适合对小部分数据进行z标准化
a = data[['Amount']]  # 取出Amount整列数据
data['Amount'] = scaler.fit_transform(data[['Amount']])  # 对Amount整列数据进行z标准化后将其传入原data内,覆盖原来的列

# 删除无用的列,Time列,axis=1表示列,axis=0表示行,然后再传入data文件
data = data.drop(['Time'],axis=1)

x_big = data.drop('Class',axis=1)
y_big = data.Class


# 处理小数据集
positive_eg = data[data['Class'] == 0]  # 分别取出列中数据等于1的0的,分别赋值
negative_eg = data[data['Class'] == 1]
np.random.seed(seed=4)  # 随机种子 
positive_eg = positive_eg.sample(len(negative_eg))   # 使用sample函数取出等长度条数的数据
data_c = pd.concat([positive_eg,negative_eg])   # 使用pandas中的concat合并两个数据集
print(data_c)
# 显示中文
mpl.rcParams['font.sans-serif'] = ['Microsoft YaHei']
mpl.rcParams['axes.unicode_minus'] = False

from sklearn.model_selection import train_test_split
# 删除列Class后的数据赋值给 x,然后再将Class单独取出赋值给y
x = data_c.drop('Class',axis=1)   # 对小数据集分类,特征数据集x以及标签
y = data_c.Class

x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.3,random_state=0)  # 对小数据集进行随机取样,取出30%当做测试集,剩下的70%当做训练集
x_train_bid,x_test_big,y_train_big,y_test_big = train_test_split(x_big,y_big,test_size=0.3,random_state=0)  # 对大数据集(原始数据)进行随机取样,取出30%当做测试集,剩下的70%当做训练集

from sklearn.linear_model import LogisticRegression  # 导入逻辑回归模型
from sklearn.model_selection import cross_val_score  # 用来进行k折交叉验证

scores = []  # 定义一个空列表,用来存放后面更改正则化强度后的每个C值计算结果对应的score值
c_param_range = [0.01,0.1,1,10,100] # 循环更改的C值

for i in c_param_range:
    lr = LogisticRegression(C=i,penalty='l2',solver='lbfgs',max_iter=1000)  # 建立模型,循环更改其参数
    score = cross_val_score(lr,x_train,y_train,cv=8,scoring='recall')  # 使用上述模型对数据集进行k折交叉验证
    score_mean = sum(score)/len(score)    # 计算不同C值对应概率平均值
    scores.append(score_mean)
    print(score_mean)

best_c = c_param_range[np.argmax(scores)]   # 取出最大概率对应的最优C值

lr = LogisticRegression(C=best_c,penalty='l2',max_iter=1000)   # 将最优C值导入模型,正式对其训练
lr.fit(x_train,y_train)   # 倒入训练数据集

from sklearn import metrics  # 用来查看分类报告

train_predict = lr.predict(x_train)   # 导入测试集进行预测
print(metrics.classification_report(y_train,train_predict))  # 打印分类报告
cm_plot(y_train,train_predict).show()   # 可视化混淆矩阵

test_predict = lr.predict(x_test)   # 对测试集进行测试
print(metrics.classification_report(y_test,test_predict))  # 打印分类报告
cm_plot(y_test,test_predict).show()  # 可视化混淆矩阵

test_predict_big = lr.predict(x_test_big)   # 对原始数据测试集进行测试
print(metrics.classification_report(y_test_big,test_predict_big))

train_predict_big = lr.predict(x_train_bid)  # 对原始数据的训练集进行测试
print(metrics.classification_report(y_train_big,train_predict_big))

thresholds = [0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9]  # 修改阈值,设置阈值范围不断迭代来判断概率最大值
recalls = []
for i in thresholds:   
    y_predict_proba = lr.predict_proba(x_test)  # 打印属于0类和1类的概率

    y_predict_proba = pd.DataFrame(y_predict_proba)  # 更改数据类型为二维数组
    y_predict_proba = y_predict_proba.drop([0],axis=1)  # 删除类别0的数据
    y_predict_proba[y_predict_proba[[1]] > i] = 1  # 判断如果概率大于i,则将其定义为1类
    y_predict_proba[y_predict_proba[[1]] <= i] =0

    recall = metrics.recall_score(y_test,y_predict_proba[1])  # 输入测试集标签和测试结果,直接打印需要的召回率
    recalls.append(recall)
    print("{}Recall metric in the testing dataset:{:.3f}".format(i,recall))

代码输出结果如下:

1)最初的样本分类情况

2)处理后的数据的混淆矩阵:

3)最终打印输出结果

四、总结:

        下采样是一种处理大批量数据的方法,其目的是减少数据集的规模,从而提高算法的效率和速度,同时保持对数据集的代表性。

总结下采样的步骤如下:

  1. 确定下采样的目标:首先需要明确下采样的目的是为了解决什么问题。例如,如果数据集不平衡,可以采用下采样来平衡正负样本的比例;如果算法运行速度较慢,可以采用下采样来减少计算量。

  2. 选择下采样的方法:常见的下采样方法包括随机下采样、集群下采样和有选择性地下采样。

    • 随机下采样:随机从原始数据集中抽取一定数量的样本,使得抽样后的数据集大小满足要求。这种方法简单快速,但可能会损失一些稀有的样本信息。

    • 集群下采样:使用聚类算法将原始数据集划分为若干个簇,然后从每个簇中选择代表性的样本作为下采样的结果。这种方法可以保留原始数据集中的多样性特征,但计算复杂度较高。

    • 有选择性地下采样:根据具体问题的需求,有选择地保留或删除某些特定的样本。例如,根据样本的分类结果或属性进行选择性地下采样。

  3. 实施下采样:根据选择的下采样方法,对原始数据集进行处理。可以使用编程工具或库来实现下采样的操作,如Python中的numpy、pandas和sklearn等工具。

  4. 检查结果:完成下采样后,需要对结果进行检查,确保下采样后的数据集仍保持了原始数据集的代表性和特征。可以使用数据可视化和统计分析等方法对下采样结果进行评估。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

菜就多练_0828

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值